IA : le progrès version Mad Max
Retour à l'émissionTranscription de l’émission
Pour présenter un peu concrètement Data for Good, on va dire qu’on a vraiment deux angles d’action. Le premier, c’est vraiment créer des projets avec des associations qui luttent pour la justice sociale et environnementale, donc ça veut dire vraiment travailler avec des associations de terrain qui proposent des solutions de long terme et qui connaissent leur sujet. Donc, par exemple, ça veut dire qu’on a travaillé avec Bloom pour les aider à traquer les plus gros bateaux de pêche et en fait, arriver à détecter quand ils sont dans des aires marines protégées. Ou quand ils sont dans des zones où ils ne sont pas censés être en train de pêcher. Comme tu l’as dit avec Pink Bombs, avec l’association Systémique, par exemple, lutter contre, alors attention, c’est un sujet un peu niche, l’implantation de fermes-usines terrestres de saumon en France, parce qu’il y a plusieurs projets en cours. Donc comment est-ce qu’on quantifie l’impact de ces projets-là et comment est-ce qu’on raconte cette histoire aux citoyens pour obtenir la destruction de ces centres ? Et puis, peut-être un dernier exemple, on a envie de se mobiliser. Et, derrière, pouvoir demander à un moratoire. Dernier exemple, récemment, avec Quota Climat, qui est une association qui œuvre pour un meilleur traitement médiatique de l'écologie dans les médias. On a construit des outils pour détecter la désinformation climatique dans les médias, et ça au service d’un plaidoyer pour lutter contre cette désinformation qui est de plus en plus répandue. Ça, c’est la face pile. C’est la face pile, non, côté pile. Côté face, on utilise la technologie pour l’intérêt général. Côté face, c’est qu’on lutte contre l’hégémonie de la technologie en cours. Ça veut dire travailler avec des chercheurs, avec des associations qui se mobilisent pour à la fois rédiger des rapports, mais aussi faire du plaidoyer, mobiliser la société civile pour lutter contre l’expansion des centres de données et l’hégémonie qu’on essaye de nous vendre actuellement, et très dernièrement, c’est mobiliser avec plusieurs organisations sur un sujet important, donc je le mentionne, avec La Quadrature du Net, avec Green IT, avec Common, avec le collectif Le Nuage était sous nos pieds, lutter contre l’implantation de la proposition de loi qui est en train d'être discutée en ce moment à l’Assemblée, qui est la loi de simplification massive de centres de données en France.
C’est vrai qu’aujourd’hui, quand on parle d’IA, on pense systématiquement à IA générative. Alors qu’en fait, il faut comprendre qu’il y a plein d’IA différentes qui existent. Et comme tu le dis, on en utilise depuis très longtemps. Donc, IA, ça ne veut pas dire grand-chose algorithmiquement. Et puis, il y a plein de définitions différentes. Souvent, quand tu dis IA, en fait, on pense à machine Learning, donc en fait l’idée, l’apprentissage machine, c’est-à-dire, l’idée du machine Learning, c’est vraiment de dire que c’est un ensemble d’algorithmes qui, au lieu qu’on leur apprenne des règles vraiment précises, sont capables de comprendre des règles à partir d’exemples. Et donc je donne un exemple, par exemple, pour faire de la traduction entre du français et de l’anglais. Au lieu d’expliciter toutes les règles de grammaire, de conjugaison, etc., on va montrer plein d’exemples et du coup, l’algorithme va être capable de découvrir des patterns et des règles sous-jacentes. Et parmi le machine Learning il y a une catégorie d’algorithmes qui s’appelle le deep Learning, donc l’apprentissage profond, qui en fait repose sur une modélisation qui ressemble à des réseaux de neurones artificiels et qui s’inspire un petit peu du fonctionnement de nos cerveaux à la base. Du coup, quand on parle d’intelligence artificielle, il y a toutes ces catégories d’algorithmes qu’il faut prendre en compte. Ces algorithmes-là, ils sont utilisés déjà depuis les années 90. Au départ, un des premiers usages, c'était pour détecter les chèques dans les banques et ils ont connu une augmentation très forte à partir des années 2010 à cause de deux grands facteurs : déjà l’augmentation massive du nombre de données disponibles grâce au développement très fort d’Internet et puis aussi l’augmentation de la puissance de calcul. Et du coup depuis les années depuis 2022, avec l’apparition de ChatGpt et l’IA générative accessible au grand public. En fait, on a deux grandes constantes qui ont évolué. Du coup, le fait que cette IA devient disponible massivement à plein d’utilisateurs et que, du coup, l’usage devient gigantesque et qu’elle est aussi poussée économiquement. Et puis, le fait que les algorithmes deviennent de plus en plus complexes avec un besoin de plus de données pour fonctionner et donc un besoin de plus de puissance de calcul. Ça, c’est un peu la grande transformation qu’on observe depuis l’arrivée de l’IA générative. Peut-être que la dernière chose qui est importante, c’est que quand on parle d’IA, je pense que c’est important de ne pas rester que sur une définition technique, parce qu’en fait c’est beaucoup plus aujourd’hui. L’IA, c’est un concept marketing, ça incarne toute une vision politique et sociale qu’on a envie de pousser, et c'était un phénomène planétaire. Tu disais que c'était poussé économiquement justement ?
Mais oui, en fait c’est vrai qu’en plus on peut avoir vraiment un sentiment d’incompréhension totale quand on entend les montants qui sont investis. Les 100 milliards annoncés par Emmanuel Macron au regard de toutes les coupes budgétaires qu’on est en train de faire dans la santé, dans la transition, dans l'éducation, ça paraît complètement délirant et surtout avec cette question qui me paraît évidente mais pourtant personne ne se pose, de juste pourquoi est-ce qu’on veut développer cette intelligence artificielle ? Enfin la question des usages, quoi, qu’est-ce qu’elle va venir apporter dans la société ? Aujourd’hui, on a une espèce de mythification, comme si en fait ça allait magiquement résoudre tous nos problèmes, donc une espèce déjà de croyance absolue en le projet, pardon, le progrès technique, qui viendrait à systématiquement améliorer nos conditions de vie et qui est promu par les géants de la Tech. Mais en fait, et ça, c’est la raison numéro deux qui est en fait la raison la plus importante. Concrètement, on est juste dans une quête de profit. La santé, l'écologie, ça ne rapporte pas de profit à un instantané, à court terme. Forcément, c’est moins intéressant que toutes les solutions magiques qu’on nous vend. Sachant que c’est quand même assez particulier parce qu’aujourd’hui, on se rend compte quand même que ces solutions sont largement déficitaires. Par exemple, OpenAI, pour un dollar récupéré, ils en perdent trois. Donc aujourd’hui, il y a plein de solutions qui n’ont pas du tout montré leur viabilité. Et puis, comme tu disais, il y a un peu cette quête permanente, une espèce de course permanente qui nous est vendue et qui proclame que si on n’y va pas, si on n’accélère pas, on va se faire dépasser. Et dans ce cadre-là, il y avait une interview d’Eric Schmidt, qui est l’ancien PDG de Google, auprès du Congrès américain, qui est assez édifiante, où il dit très clairement, je ne me souviens pas de la citation exacte, mais en gros, il dit que de nombreuses personnes pensent que la demande en électricité de l’IA va passer de 3 % à 99 % dans les prochaines années. Enfin, c’est un truc complètement délirant. Et qu’il faut absolument investir à fond, parce qu’on ne sait pas ce qui va se passer si la Chine développe une super-intelligence, que ça va renverser l’ordre existant, et que du coup, il nous faut plein d'énergie. On s’en fiche qu’elle soit renouvelable ou pas. On veut juste de l'énergie. On veut de la dérégulation pour pouvoir porter ça. Et en plus, il porte ce discours en ayant lui-même des intérêts économiques très forts, puisqu’il a investi dans plein de start-ups qui développent ces solutions-là. Donc, on voit un peu l’ambivalence des discours où, en fait, l’IA est tout le temps présentée à la fois comme un risque existentiel et en même temps comme la solution, du coup, qu’il faut développer.
Déjà, c’est super intéressant parce que t’as dit « pourrait être » et en fait c’est exactement ça. C’est systématiquement, on nous vend du « ça pourrait faire ci, ça pourrait faire ça ». Donc c’est toujours une espèce de conditionnel permanent. Par contre, ce qu’on observe aujourd’hui, même sans regarder l’intelligence artificielle en elle-même, mais juste le numérique avant l’intelligence artificielle, et ça, il y a plein de chercheurs qui travaillent sur cette question des effets indirects et qui montrent qu’aujourd’hui, on n’a aucune étude qui est capable de nous prouver que la numérisation a un impact positif sur la transition. Par exemple, il y a le chercheur Gautier Roussille qui travaille beaucoup sur ces questions. Je vous invite à aller voir ses travaux. Sam Altman, pour moi, pourrait se renseigner sur cette question. Donc, du coup, il incarne cette espèce de discours techno-solutionniste qui pense la technologie complètement en dehors de son contexte, alors qu’en fait une technologie ne peut générer des impacts positifs ou négatifs que dans le contexte dans lequel elle est. Et donc, on vient nous vendre des solutions magiques sans aucune explication sur comment est-ce qu’elles vont résoudre des problèmes ou pas, et donc c’est une forme de pensée magique. Et je pense qu’il faut la replacer aussi dans le contexte de pensées de cet individu qui est assez représentatif des géants de la Tech et de la Silicon Valley aujourd’hui. Qui, pour beaucoup, font partie de courants de pensée assez autour du long-termisme, qui est un courant de pensées qui, en fait, prône en clair une séparation entre l’humanité du futur, qui pense à un futur vraiment très lointain, et l’humanité d’aujourd’hui, et qui veut protéger l’humanité à venir. Et donc, du coup, ça génère une forme de relativisme complet en disant que les problèmes d’aujourd’hui ne sont finalement pas très graves au regard des problèmes de demain. Donc, finalement, la lutte contre la pauvreté, la lutte contre le réchauffement climatique, tant qu’il y a des gens qui survivent, ce n’est pas très grave. Et du coup, il faut investir toute notre énergie à protéger une humanité qui serait là dans des centaines voire des milliers d’années. Et bien sûr, cette protection de cette humanité passe par un avenir ultra technologique, voire, pour beaucoup, du transhumanisme, c’est-à-dire des hommes qui sont augmentés par la technologie. Et parfois aussi, dans ce courant de pensée-là, ça se rapproche aussi de sélectionner les meilleurs éléments de la société. Et donc en fait, quand on dit « réparer le climat », il y a toute une pensée aussi assez eugéniste. On dit « réparer le climat » pour ces personnes-là. On ne s’intéresse pas du tout à l’intégralité de la population actuelle.
Alors, du coup je vais commencer par compléter ce que tu as dit, qui est le point numéro un et le plus important à comprendre, c’est qu’il y a une opacité extrême de l’accès à l’information et que cette opacité, elle est organisée par les géants de la Tech qui ne veulent pas transmettre d’informations sur leurs impacts de manière précise. Donc c’est très difficile d’avoir accès à de l’information vraiment concrète sur les impacts. Il y a quelques semaines, il y a un rapport qui est sorti par l’Agence internationale de l'énergie qui essaye de quantifier un peu de manière globale les impacts de l’intelligence artificielle et des centres de données de manière générale. Et je souligne, avant d’utiliser certains chiffres de cette étude, que cette étude a été relue par l’intégralité des acteurs Oil & Gas et Tech de la place, enfin en tout cas les plus gros. Donc, il y a plein de conclusions de ce rapport qui sont vraiment très questionnables, notamment sur la question des émissions évitées, permises par l’intelligence artificielle. Mais si on parle d’abord des impacts directs, ça donne quand même des éléments intéressants sur la consommation de certaines ressources. Donc, si j’essaye de dresser un panorama un peu exhaustif, qui ne le sera pas du tout parce que ça prendrait des heures pour parler de ce sujet. D’abord, je pense que le premier sujet dont on peut parler, c’est la question de l'électricité, parce que les centres de données ont besoin d'énormément d'électricité pour fonctionner. Donc, dans ce rapport, l’Agence internationale de l'énergie a le chiffre qu’aujourd’hui, les centres de données consomment à peu près 1,5 % de la demande en électricité mondiale. Ce qui est hyper important, c’est de comprendre la dynamique, parce qu’en absolu, ça n’a pas l’air énorme. Mais en fait, c’est déjà beaucoup, et ils prévoient dans leur scénario de base que 1,5 % se transforme en 3 % à horizon 2030. Et cette augmentation, elle est énormément tirée par le développement de l’intelligence artificielle. Et du coup, si on frappe les centres de données, on estime qu’il y a à peu près 10 %, mais c’est très difficile. Par exemple, qu’en gros les 100 %, mais c’est très difficile encore une fois à estimer, mais qu’il y a à peu près 10 % des centres de données actuels qui sont dédiés à l’intelligence artificielle en 2024. Et donc, on prévoit que ça, ça passe à 50 % en 2030. Donc, en gros, ça veut dire que c’est multiplié. La demande en électricité de l’IA a été multipliée entre 6 et 12 fois entre aujourd’hui et 2030. Dans un contexte général, on est quand même censé transitionner, faire une transition énergétique et consommer de manière générale moins d'énergie. Donc il y a cette dynamique vraiment d’augmentation très forte. Ce qui est important aussi sur la question de l'électricité, c’est que ces centres de données sont très localisés géographiquement. Parce que 1,5 et 3 %, c'était des moyennes mondiales. En fait, aujourd’hui, il y a d'énormes clusters, donc des ensembles de centres de données qui sont dans des zones très précises. Comme il y en a beaucoup au même endroit, ça va venir créer des conflits d’usage vraiment très forts sur la ressource électrique, en l’occurrence, puisqu’on parle d'électricité, là. Et donc, on a plein d’exemples. Deux cas, même en France, où en fait, on a La Quadrature du Net et le collectif Le Nuage était sous nos pieds, qui ont fait un travail, un conflit d’usages sur la ressource en électricité. Donc, un travail de documentation hyper important sur les centres de données à Marseille, et ils ont montré qu’en fait la demande en électricité des centres de données à Marseille, elle venait empêcher d’autres électrifications, notamment l'électrification des ferries dans le port de Marseille, qui génèrent énormément de pollution locale d’ailleurs, à cause du soufre, etc. Et l'électrification des transports. Après, par exemple, en Irlande, il y a beaucoup de centres de données et l'électricité qu’ils demandent, ça représente plus de 21 % de l'électricité locale, donc ça fait qu’il y a des risques de blackout assez forts.
En fait, il me semble que cette étude du Guardian, c'était vraiment sur la manière dont on reporte les émissions du Scope 2 et le fait de jouer entre l'électricité qui est vraiment consommée sur place par le centre de données et ce qu’on peut acheter, échanger sur les marchés de l'électricité, ce qui ne correspond pas du tout à la réalité de la consommation réelle. On parle d'émissions des géants de la Tech qui sont monstrueuses et aussi de décalage complet entre les engagements qu’elles prennent et la réalité de leurs émissions. Donc, par exemple, on sait que Google a augmenté ses émissions de 50 % depuis 2019, Microsoft de 30 %, donc en fait, il y a un décalage complet entre leurs objectifs et ce qu’ils sont en train de faire réellement, tout ça c’est tiré par le développement de l’intelligence artificielle. Et oui, et t’as parlé du fait qu’ils ouvraient, enfin qu’ils essayaient d’acheter, ils faisaient une course aux énergies renouvelables. C’est vrai, et ils investissent même dans la fusion, dans les petits réacteurs nucléaires pour produire leur propre électricité. Aujourd’hui, ce qui se passe et ce qu’on observe actuellement, c’est qu’en fait, ils se tournent vers des options de raccordement à l'électricité rapide parce qu’il y a une augmentation de la demande tellement forte qu’ils veulent être raccordés le plus rapidement possible. Et que très souvent, aujourd’hui, en fait, cette demande est comblée par du gaz. Et donc, en fait, on vient augmenter notre dépendance à ces énergies-là. On a même, aux États-Unis, des centrales à charbon qui sont rouvertes ou prolongées pour répondre à la demande. Parce que ce qui est aussi très intéressant à comprendre, c’est que l’intensité carbone de l'électricité, elle va dépendre de comment est-ce qu’elle est fabriquée. Et aux États-Unis, deux tiers de l'électricité, elle est fabriquée avec du fossile, beaucoup de gaz et un peu de charbon. Et donc, du coup, elle a une intensité carbone très élevée.
Encore plus que pour le carbone, il y a une opacité vraiment très, très, très forte. Et donc cette étude, honnêtement, je pense que c’est invérifiable, ces chiffres. Donc il y a une opacité très forte de l’usage réel de l’eau, sachant que c’est des questions qui sont beaucoup plus locales aussi. C’est pas la même chose, je ne suis pas du tout une experte de l’eau, mais en tout cas, ce qu’on sait, c’est qu’il y a très peu de données qui sont disponibles. Peut-être que je peux déjà rappeler à quoi est-ce qu’elle sert, l’eau, pourquoi est-ce qu’ils ont besoin d’eau dans les centres de données.
En gros, il va y avoir la consommation d’eau directe qui est liée au refroidissement des serveurs. Et en fait, il y a plein de technologies différentes de refroidissement qui existent. Elles n’utilisent pas toutes de l’eau, et souvent, c’est un arbitrage entre beaucoup d’eau donc moins d'électricité, ou alors beaucoup plus d'électricité et moins d’eau. Ensuite, il y a toute la consommation indirecte d’eau qui va être liée, du coup, à la création de l'électricité pour faire tourner les centres de données. Donc là, en fait, cette consommation d’eau et ces prélèvements d’eau vont être beaucoup plus importants. L'électricité qui est consommée, elle est faite tous les cas, dans des faits à partir de fossiles, parce qu’en fait on utilise très peu d’eau pour fabriquer de l'électricité avec du renouvelable. C’est beaucoup plus quand on utilise du gaz ou du charbon qu’on utilise de l’eau, qu’on a besoin d’eau pour générer de l'électricité. Et puis, la troisième source de consommation d’eau, c’est aussi la fabrication des puces, des terminaux, de tout ce qui va nous permettre, en fait, d’utiliser, de faire tourner des modèles. Et donc voilà, je pense qu’il y a une opacité vraiment très, très forte sur la question de la consommation de l’eau. Il y a des chiffres qui sont donnés dans le rapport de l’Agence internationale de l'énergie. Ils disent à peu près que, grosso modo, la consommation d’eau en 2023, de l’intégralité des centres de données, serait autour de 600 milliards de litres et qu’elle serait amenée à être multipliée par deux d’ici 2030. Et autour de 5 milliards, il me semble, pour les prélèvements d’eau, pareil, autour de multiplier par deux, d’ici 2030. Mais encore une fois, ce sont des estimations dont on connaît très peu de chiffres. Et en fait, la question encore nous ramène à la question de la centralisation des centres de données, parce que le fait d’avoir beaucoup de centres de données au même endroit, qui vont avoir beaucoup de besoins et donc qui vont prélever de l’eau, c’est ça qui va générer des conflits d’usage. Il y a eu une étude du Guardian, encore, très intéressante sur la question du coût de l’eau qui est consommée par les centres de données et la question des conflits d’usage. Elle montrait, par exemple, en Arizona, qu’il y avait des habitations dont les permis de construire avaient été refusés parce qu’il y avait trop de tension sur l’eau, notamment à cause de la demande des centres de données. Et dans ce rapport, ils mettent aussi en avant des chiffres du rapport de Microsoft. C’est intéressant, il montre qu’en 2023, Microsoft avait plus de 42 % de ses centres de données qui sont construits dans des zones à forts stress hydrique. Et que cette même année, ils avaient augmenté leur consommation d’eau de 34 %.
En France, je n’en connais pas vraiment, parce que je pense que je ne connais pas encore, et j’ai l’impression que la question de l’eau est peut-être un peu moins forte en France actuellement, vu les zones d’implantation des centres de données. Mais, par exemple, à Taïwan, il y a TSMC, c’est une entreprise de fabrication de puces, notamment GPU, qui sont les puces graphiques qui permettent de faire tourner les serveurs et de faire les calculs. Et en fait, ça fait plusieurs années qu’il y a des sécheresses à répétition dans cette zone, et donc j’avais lu un article qui montrait que les agriculteurs, et en particulier les riziculteurs, étaient payés pour ne pas faire leur métier, pour ne pas planter, afin de favoriser la ressource en eau au profit de la fabrication de puces.
Pour des puces de plus en plus petites avec de plus de transistors dessus, et plus on va avoir besoin de métaux qui sont très, très purs, et plus les métaux sont purs, plus on a besoin d'énergie pour les produire et plus on a besoin aussi de produits chimiques pour les extraire. Et donc il y a une intrication aussi très forte entre l’industrie des métaux et l’industrie chimique pour extraire tous ces métaux dont on a besoin. Et puis, au-delà des métaux, on a aussi besoin de béton pour construire ces centres de données. On n’en a pas parlé, mais il y a aussi toute la question de l’artificialisation des sols, parce qu’on parle d’infrastructures qui sont vraiment très grandes et qui ont une forte emprise au sol. Et tout ça, ce sont des sujets qui sont à documenter encore sur leurs impacts.
Aujourd’hui, on ne sait même pas à combien de paramètres sont utilisés pour entraîner l’algorithme de ChatGpt. Donc, c’est sûr que le truc numéro un, c’est d’exiger de la transparence et d’avoir accès à ces données. Il y avait une réglementation européenne qui devait exiger des informations sur la consommation électrique des centres de données, qui vient de rentrer en application, il me semble, mais je crois qu’on n’a pas encore de données. À vérifier cette information.
Je ne suis pas sûre que j’aie la réponse à ta question parce qu’elle est très complexe. Je pense que je peux déjà essayer de décortiquer un peu ce qui se passe sur la question de la désinformation climatique, qui est celle que je connais le mieux pour travailler un petit peu dessus. Aujourd’hui, la désinformation climatique, c’est le sujet qui, en ligne, fait le plus l’objet de désinformation. Donc, il y a un rapport de l’EMMO qui montre que 13 % de la désinformation en ligne est sur la question de la désinformation climatique, devant les questions de l’Ukraine. Dans le monde. Et en fait, cette désinformation climatique a énormément changé d’instrumentalisation. Avant, la désinformation, c'était en fait, les discours sur la désinformation ont énormément changé. C'était vraiment… on allait vraiment renier la science, quoi, dire le réchauffement climatique n’existe pas. Désormais, ce sont des formes beaucoup plus complexes et plus insidieuses aussi, ça s’appelle les New Climate Denials, aujourd’hui ça prend des formes plus variées, et donc là on va aller beaucoup plus s’attaquer aux messagers de la transition, c’est-à-dire les gens qui vont porter des messages, les scientifiques, avec de la diffamation, avec plein de formes d’attaques, et puis on va aussi s’attaquer aux solutions, pour venir créer du doute, et du coup réduire l’adhésion. Et donc, là-dedans, les réseaux sociaux et la désinformation jouent un rôle très fort, parce qu’ils vont venir amplifier tous ces discours.
Et donc, quand on parle d’IA, et d’ailleurs c’est un peu ce qu’on fait depuis le début, on parle beaucoup d’IA générative et des IA de recommandation. Mais en fait, les IA de recommandations, je pense qu’on les utilise tous beaucoup plus que l’IA générative au quotidien, parce qu’en fait, les IA de recommandations, elles viennent façonner nos fils d’actualité, façonner la manière dont on voit le monde. Et ces fils d’actualité, ils ne sont pas du tout construits pour nous aider à réfléchir, à nous élever intellectuellement, ou pour communiquer avec nos amis. Ils sont faits pour nous faire passer plus de temps sur les réseaux, parce qu’en fait, plus de temps sur les réseaux, ça veut dire plus d’argent pour les entreprises qui créent ces réseaux sociaux, parce qu’on va avoir plus de publicité. Grosso modo, c’est ça. Donc, du coup, tous les discours, tous les contenus qui vont nous faire rester plus longtemps, qui sont identifiés comme étant engageants par le biais de plein de biais, de négativité, etc., vont être promus par les algorithmes et donc vont faire proliférer des informations fausses.Donc par exemple, il y a une étude du MIT qui montre qu’une information fausse circule six fois plus rapidement qu’une information vraie. Et le fait que toutes ces théories dont la désinformation climatique est un gros exemple circulent et prolifèrent beaucoup plus vite, ça va venir polariser et ça va accentuer la non-adhésion à des mesures climatiques et donc ralentir la prise en compte de mesures. Et au-delà de viraliser les contenus, l’IA générative, elle vient aussi faciliter la création de contenus, le fait qu’on peut aussi les personnaliser beaucoup plus rapidement. Et donc, on peut toucher beaucoup plus de monde.
Pas du tout, et d’ailleurs c’est vraiment, merci de le dire, parce que c’est vraiment l’objectif aussi de notre travail avec Quota Climat sur la désinformation climatique où, là, nous, pour l’instant, on travaille exclusivement sur la désinformation climatique dans les médias. Avec vraiment cette idée de dire que les journalistes sont des remparts face à la désinformation et qu’ils ont un rôle à jouer dans l’accès des gens à une information de qualité, sourcée, et qui permet de vraiment se faire une opinion forte. Et que, aussi, les citoyens accordent beaucoup plus de confiance aujourd’hui à ce qu’ils vont voir à la télé qu'à ce qu’ils vont voir sur les réseaux sociaux. Donc c’est vraiment très important que les médias agissent de manière proactive pour former et pour diffuser des informations correctes et justes sur les questions climatiques et environnementales de manière générale.
Ben, je pense qu’il y a deux niveaux de réponse. Le premier, c’est bien sûr qu’en fait, l’IA générative et les IA de manière générale aussi, de recommandation, changent complètement notre rapport à la preuve, à ce qui est vrai et ce qui est faux, et que, bien sûr, qu’en tant qu’individu, on peut et on doit essayer de se renseigner, essayer d’exercer son libre arbitre, essayer de comprendre d’où viennent les informations, de ne pas partager immédiatement des contenus, de s’interroger sur d’où ils viennent, essayer de croiser les sources. Mais il y a un enjeu fondamental de ne pas faire reposer cette responsabilité uniquement et même du tout sur les individus, sachant qu’en fait, le problème, c’est aussi et fondamentalement la manière dont ces algorithmes fonctionnent et dont ils promeuvent des informations. Si on parle exclusivement des réseaux sociaux, parce que là tu parlais de réseaux sociaux, la manière dont ils fonctionnent. Et donc, il y a un enjeu de beaucoup mieux les réguler, de les rendre responsables des contenus qu’ils promeuvent et de la manière dont ils réalisent des contenus. Après, il y a plein de chercheurs qui travaillent sur ces questions et qui font des propositions très intéressantes. Je pense par exemple à Léa Nguyen Hoang, qui a cofondé Tournesol, qui est une association qui vise à réfléchir à comment est-ce qu’on peut construire d’autres algorithmes de recommandations qui promeuvent beaucoup plus notre intérêt et nos valeurs que quelque chose qui nous pousse à rester longtemps et à capter notre attention. Donc pour moi, il y a vraiment un enjeu de solutions qui doivent être collectives et réglementaires et ambitieuses à l'échelle européenne.
Ben je pense que c’est la question que personne ne se pose. En fait, c’est la question à laquelle il faut qu’on réponde, en fait, collectivement. Et donc moi, je pense vraiment qu’on devrait en premier lieu se poser cette question. Quels usages on veut promouvoir ? Qu’est-ce qu’on veut faire avec cette intelligence artificielle ? D’ailleurs, ça faisait partie des propositions, notamment, de La Quadrature du Net : pourquoi est-ce qu’on ne ferait pas une convention citoyenne autour de l’intelligence artificielle et qu’on réfléchisse à « c’est quoi », en fait, les usages qu’on voudrait ? C’est quoi ? Pourquoi est-ce qu’on en a besoin vraiment précisément avant de la développer ? Parce qu’aujourd’hui, on est dans une démarche où on y va toutes les minutes. Du coup, d’une certaine manière, presque l’offre crée la demande. Et d’ailleurs, il y a eu une étude de Limites Numériques qui était hyper intéressante, qui montrait comment est-ce que l’intelligence artificielle, c’est une des fonctionnalités qui n’a jamais été autant poussée par design dans nos applications, où on va nous mettre toujours des émoticônes qui ressemblent à de la magie. On va les mettre en violet pour évoquer, pareil, quelque chose de magique. On va nous pousser, on va mettre des boutons dans des endroits où d’habitude on a l’habitude de cliquer pour, par exemple, envoyer, comme sur Meta, pour nous pousser vraiment à cliquer dessus et à l’utiliser. Donc on nous pousse à l’utiliser. Enfin, moi, ma position est qu’il y a des usages qui peuvent être utiles. On ne sait pas du tout dire qu’il faut rejeter en bloc l’usage qui peut être utile. Je pense dans la santé, dans la lutte, la détection de la météo pour prévenir des événements climatiques, pour détecter des feux de forêt. Donc il y a des cas d’usage spécifiques qui peuvent être utiles. Mais en fait, ce n’est jamais la technologie ou l’IA en soi qui est la solution. C’est la manière dont elle est pensée dans le cadre existant pour répondre à une problématique spécifique, en tenant compte de comment est-ce qu’elle va être intégrée, comment est-ce qu’elle bouscule les équilibres sociaux, locaux, avant d'être implémentée et donc, en fait, dans une démarche vraiment de prise de recul, concertée sur des usages.
Mais après, je ne suis pas du tout experte de cette question, donc je ne peux pas en invalider ou valider la théorie. Moi, je parle d’un ressenti général et de ce qu’on observe, et aussi des papiers de recherche qui commencent à sortir sur la question. Et en fait, le problème avec l’IA aujourd’hui, c’est que ça va tellement vite que personne ne se pose pour réfléchir à ces impacts-là et à comment est-ce que c’est en train d’impacter fondamentalement nos cerveaux, d’une autre manière de réfléchir, d’une autre manière d'être au monde, et ça, pour moi, c’est fondamental qu’on prenne le temps de cette réflexion-là avant de foncer au nom du profit dans ce déploiement complètement exponentiel.Lauren Boudard Oui,c’est d’ailleurs une remarque qui résume un peu ce qu’on s’est dit. Bah écoutez, pour moi c'était écrit : le problème, c’est le capitalisme, pas l’IA. Pour moi, c’est bon, je trouve qu’on s’est dit déjà pas mal de choses. Merci Lou et merci à toutes et tous de nous avoir écoutés, c'était super intéressant. Je vous remontre le Climax Rage Against the Fascism, en plus il est orange et noir comme Au Poste, donc vraiment rien que pour la D.A, je vous invite à jeter un coup d'œil. Merci encore et n’hésitez pas à soutenir Au Poste, évidemment, à soutenir Climax, à aller voir le travail de Data for Good, parce que c’est vraiment super ce qu’ils ont fait sur les Pink-bombs notamment récemment, mais plein d’autres choses dont Lou a parlé, qui sont hyper intéressantes, enfin c'était vraiment des travaux de vulgarisation hors pair. Donc merci à tous et bonne soirée.
