4 668 € récoltés sur 16 000 €
Loyer
Gestion
Transport
Salaires
Divers
Site
Je soutiens Au Poste !
Sans montage ni formatage
Au Poste retourne le réel Pour défendre les libertés et nourrir le débat public 100 % libre et LIVE Sans montage ni formatage

Internet en décomposition : comment l’IA achève le rêve du web libre — Olivier Ertzscheid ?

Retour à l'émission

Transcription de l’émission

David Dufresne
Amis du café, amis de l’intelligence naturelle, amis des micros qui fonctionnent, bonjour amis de la pensée pure, de la pensée franche, venus de la Roche-sur-Yon, avec Ertzscheid Olivier, le grand, le meilleur maître de conférences en sciences de l’information que la planète Terre possède, qui est également l’auteur. D’un ouvrage dont nous avions parlé à l'époque, les IA à l’assaut du cyberspace, chez les belles éditions CF Éditions. Il est là, il est là. Avec Olivier, que vous connaissez peut-être sous son pseudonyme Affordance, nos fiches sont à jour, on sait très bien comment il s’appelle exactement, nous allons pouvoir parler du bordel, du Big Bang. Lui, il appelle ça un tsunami de merde. A priori, on a réglé nos histoires de son. Attention, 3-4. Olivier, est-ce que je t’entends ?
Ertzscheid Olivier
Bonjour tout le monde, salut David et merci pour l’invitation, je t’entends bien, par contre, je ne te vois pas du tout.
David Dufresne
Alors normalement tu dois avoir une petite fenêtre qui te montre ce qui est à l’antenne. Tu n’as pas de petite fenêtre sous tes yeux.
Ertzscheid Olivier
Écoute, je ne vois pas de petites fenêtres, je n’en vois que ma tête en gros plan,ce n’est pas dans la barre en bas.
David Dufresne
Alors si Olivier ne peut pas voir, c’est-à-dire c'était quand même un gars que moi j’ai connu à l'époque du HTML, Oui ça va, je m’en fous pas. Si t’as répondu, écoute, c’est pas grave.
Ertzscheid Olivier
C’est pas très grave, c’est grave.
David Dufresne
Regarde toi, tu es beau, tout va bien.
Ertzscheid Olivier
Merci.
David Dufresne
Tout va très bien. La semaine dernière, Olivier, tu as publié un article dont tu as seul le secret, le web pourrissant et l’IA florissante. Si nous sommes le bruit, qui sera la fureur ? Et tu as accepté derechef mon invitation parce que tu sais que je suis un de tes lecteurs fidèles depuis toujours, mais j’ai trouvé cet article particulièrement fort parce qu’il est extrêmement éclairant et je dois dire plutôt alarmiste. Même très alarmiste ! C’est-à-dire que là, tu nous dis, il faut reprendre le contrôle, sinon c’est le bordel. Est-ce que je résume bien là ? Et après, on va rentrer dans les détails, évidemment.
Ertzscheid Olivier
Non, c’est bien résumé, il y a effectivement, pour le côté alarmiste, je pense qu’on s’approche de plus en plus de ce que plein d’observateurs, pas que moi, décrivent depuis des années comme un point de bascule dans la capacité de ces technologies de nous émanciper plutôt que de nous aliéner.
David Dufresne
Oh attend attend attend Olivier, je crois qu’on vient de subir un raid, excuse-moi, excuse moi, on vient de subir un raid alors je sais pas de qui.
Ertzscheid Olivier
C’est pas des IA, on est sûr que c’est des IA.
David Dufresne
Non, ce n’est pas des IA, c’est probablement le streamer le plus charnel de France Ostpolitik. Bonjour les ost politiciens, les ost politiciens, vous êtes les bienvenus. On démarre tout juste avec Ertzscheid Olivier une émission qui va durer une petite heure où on va faire le point, suite à son article publié la semaine dernière sur son blog, sur ce qu’il faut comprendre de ce qui est en train d’arriver. Autour de l’intelligence artificielle,Olivier est maître de conférence en sciences de l’information. C’est le meilleur, restez avec nous, participez au tchat, vous êtes les bienvenus. Olivier, rapidement, le point de la situation, le point bascule dont tu parlais à l’instant.
Ertzscheid Olivier
Le point de bascule, c’est celui entre, je le disais, la capacité de cette technologie de nous émanciper ou de nous aliéner. Et là, effectivement, avec ce qui se passe aujourd’hui autour notamment de l’explosion de l’IA, on a des contenus web, on savait déjà que le trafic internet était principalement squatté par un certain nombre de bots, on savais déjà qu’il y avait des sites entiers qui étaient essentiellement alimentés par des bots. Mais aujourd’hui avec la démocratisation de ces technologies d’IA, leur mise à disposition délibérée à coups quasi nuls pour les utilisateurs, on observe un point de bascule, c’est-à-dire qu’effectivement on est littéralement noyé sous des flots de contenu généré par IA, qui ont un intérêt, somme toute, assez relatif, il y a un terme qui désigne ça, on parle de Slop et IA. C’est à dire une espèce de bouillie d’IA. Et derrière, ce que j’essaye de pointer entre autres dans le dernier papier, c’est cette idée que ces technologies nous mettent dans des situations de déprise. C’est-à-dire que ça nous éloigne du réel, ça nous éloigne de la capacité de créer, de discuter, de converser, de s’exprimer,ce qui était l’idéal du web pour les vieilles personnes comme toi et moi et ce qui continue de l'être pour un certain nombre de générations qui prennent la relève. Et cette capacité de tenir son discours, cette capacité de s’exprimer en son nom, cette capacité de fabriquer des liens de proximité, tout ça est en train de se déliter lentement, de s’effondrer. Avec des arguments de commodité, tout va plus vite, tout est plus pratique, tout est facile. Mais la question, c’est le coût social de tout ça. Est-ce que ça produit sur nos sociétés, sur nos relations, sur les liens ?
David Dufresne
Alors, Olivier, il y a tout de suite une question, c’est comment on peut tenir ce discours sans apparaître comme un réactionnaire, comme un vieux con. Quelle est ta position ? Là, il y a 2 millions de gens qui nous écoutent, donc tout le monde ne te connaît pas. D’où parles-tu ?
Ertzscheid Olivier
Alors, ça fait 25 ans maintenant, parce qu’un quart de siècle que je travaille dans un domaine qui est après des études de lettres, qui est celui des sciences de l’information et de la communication. Et donc moi ce que j’essaye de regarder depuis 20, 25 ans, c’est la manière dont les usages de ces technologies évoluent. Et la manière dont tout ça reconfigure à la fois notre rapport à l’information, au savoir, et puis aux autres, et donc à notre capacité de faire société. Et ça fait effectivement plus de 20 ans qu’avec d’autres, j’explique. Il y a 20 ans, on avait fait un papier, par exemple, pour montrer que la manière dont Google classait les résultats de recherche, là, ce n'était pas un classement algorithmique, ça témoignait d’une vision du monde, ça produisait quelque chose. Et puis après, sont arrivés les réseaux sociaux, et on a la même chose, c’est-à-dire à chaque fois, on a des gens qui cherchent à produire des visions du monde et petit à petit à nous les imposer, ou en tout cas à nous priver des clés de lecture qui permettent de les prendre pour ce qu’elles sont. Et aujourd’hui, notre étape est franchie avec ces contenus générés par intelligence artificielle qui là aussi derrière une apparence.Je parlais tout à l’heure du terme de bouillie, mais il y a des contenus qui s’inscrivent dans un registre entre eux, le sympa. Ils vont en fait nous mettre à distance de notre propre capacité, le titre, n’importe quoi. Donc derrière une apparence innocuité de pensée, de s’exprimer. Et vont nous réduire à une position qui est celle du défilant, c’est-à-dire on fait défiler des contenus. Et de la même manière qu’il y a quelques années, Il y avait cette idée pour Google par exemple d’atteindre un objectif de zéro click, c'était à dire qu’on ne clique plus mais que tout simplement ils puissent nous donner directement l’information qu’ont cherche. Là, il y a des études récentes qui montrent que non seulement on ne clique plus, mais on ne poste plus ou on poste très peu ou on poste des contenus qui sont essentiellement médiés par : on met un prompt et puis derrière, ça nous fabrique des images, des vidéos, mais notre part, dans cette grande conversation qui est l’espace des discours en ligne, notre part se réduit considérablement. Et quand on n’a plus la maîtrise de son discours on a moins la maîtrise de sa pensée et on n’est plus perméable à ce que d’autres essayent de nous imposer. Malheureusement, ces autres-là, on les connaît, ils s’appellent Trump, ils appellent Zuckerberg, ou s’appelent Altman et c’est pas forcément des gens qui ont un agenda idéologique souhaitable ou désirable.
David Dufresne
Alors, on viendra aux solutions que tu préconises, mais d’abord, on va essayer de bien décrire la situation. Tu viens de le faire. Je reprends donc cet article que vraiment je conseille, qui démarre comme ceci. Après avoir été acteur et actrice de la production de contenu, donc dans les années 90, début des années 2000, après avoir été essentiellement spectateur et spectatrice de contenus publiés par d’autres que nous appartenons à différentes sphères d’influence, là, c’est un peu les réseaux sociaux, ou des médias, nous sommes aujourd’hui entrés dans une ère de contenu où des contenus sont produits par des IA qui phagocytent et recouvrent la quasi-totalité des contenu qui nous sont proposés. Là-dessus, tu nous parles du slope AI en nous disant, toute proportion gardée, c'était un peu comme si, au début des années 2000, avec l’explosion du spam, on avait dit, vas-y, c’est cool, on va mettre du spam en avant, on va faire des médias. On va faire des médias avec juste du spam dedans. Donc en gros, ce que tu es en train de nous dire, c’est que les géants du web nous mettent de l’IA partout, qui est une IA avec des contenus de faible qualité, tu les décris mieux que moi. Le truc que je ne comprends pas dans leur raisonnement, peut-être vas-tu pouvoir m’expliquer, c' est si la branche sur laquelle ils sont, c est à dire que si à un moment donné, Il n’y a plus que du produit, ce que tu appelles du réel en moins. On ne va plus du tout, on va se détourner de tout ça, non ?
Ertzscheid Olivier
Oui, tu as raison, c’est effectivement un risque, on l’a déjà observé par exemple sur Facebook, on a vu que le niveau d’interaction avant l’arrivée de l’IA et des générateurs avait considérablement baissé, c'était-à-dire que les gens s’exprimaient moins, partageaient moins de contenu, qu’ils se contentaient, ce qu’on disait tout à l’heure, de faire défiler. Donc il y a effectivement un risque qu’en nous mettant à distance et donc uniquement dans la position de spectateur quasi passif, on finisse par se détacher de ces plateformes. Mais pour l’instant, ce risque-là, du côté des plateformes, il n’est pas avéré. Et à chaque fois que ces baisses d’interaction se produisent, les plateformes arrivent à le compenser en poussant. De manière différente de nouveaux types de contenus. Et donc effectivement, on a vu de plus en plus de publicité. On a vu, de moins en moins, sur Facebook ou sur d’autres médias, de contenu qui était lié à l’expression des gens qu’on suit, mais on a eu des reprises de contenues médiatiques plus ou moins mainstream, et puis on a des contenus indistincts, c’est-à-dire cette espèce déjà de bouillie de contenue suffisamment engageant pour qu' on reste en ligne et suffisamment non-engageants pour que ça ne nous oblige pas à avoir une activité cognitive ou intellectuelle importante. Mais ce risque, il existe. Pour l’instant, il n’est pas avéré. Pour l’instant, on continue de prendre une forme, alors pas de plaisir, mais en tout cas on est astreints à une position dans laquelle on fait essentiellement des filets et puis on a une impression de puissance, on a l’impression d’agir sur le monde, c’est-à-dire qu’on garde cette impression que finalement, c’est nous qui choisissons les comptes que l’on regarde. Sauf que quand on réfléchit deux minutes, on s’aperçoit très vite que c' est plus du tout le cas. Et y compris quand on a un ligne assez stricte et qu' on se dit, Moi, sur mon fil Instagram, par exemple, je ne choisis que des comptes de médias, France Inter, France Culture, etc., des choses comme ça. Et malgré ça, malgré ces choix, je suis littéralement submergé de tout un tas de contenu que je n’ai à aucun moment sollicité. Et ça, ça finit par nous faire basculer. Effectivement, une fois qu’il y a un nouvel habitus qui s’installe, une fois que l’on est là-dedans, la nécessité ou l’urgence de prendre la parole s'éloigne progressivement et du coup, on est de plus en plus perméable. C’est des vieilles techniques de propagande des années 50 qui ont été théorisées dans ces années-là en tout cas. On a moins cette capacité d’agir et on est face à des outils qui nous disent à quoi penser. À quel moment il faut y penser, et donc finalement qu’ils finissent par dessiner ce qu’il faut penser, avec l’incapacité là aussi de s’en abstraire. On est dans des réalités qui sont compliquées parce qu’on a l’impression qu' on partage une réalité commune, et en même temps il y a de plus en plus d’effets de silos dans toutes ces plateformes, où on peut passer totalement à côté d'éléments qui sont majeurs, parce qu il y avait eu l’exemple récemment de ce qui s’est passé sur Kick avec Jean Pormanove qui est quelque chose qui a été totalement invisible pour toute une catégorie de gens pourtant hyper connectés, et qui, à l’inverse, était tout à fait majeur et saillant pour une autre catégorie de personnes qui, parfois, partageaient les mêmes intérêts ou la même pratique.
David Dufresne
VeuveChyco te demande comment expliquer une tendance à l’humanisation des utilisateurs d’IA type ChatGPT qui pousse à la, dit-elle, entre guillemets, conversation. Quelles sont les conséquences dans nos usages ? Et je profite pour donner des informations que tu distilles dans ton magnifique billet. Tu m’as appris que ChatGPT annonçait, mettre au point des bots conversationnels érotiques et que META va encore plus loin puisqu’il entraîne ces modèles d’IA à des conversations érotiques avec des mineurs, dis-tu. Alors cette idée de pousser vers la conversation en dehors du fric, qu’est-ce qui se cache derrière les motivations des géants de l’IA ?
Ertzscheid Olivier
Alors le conversationnel est en train de s’implanter et possiblement, ce qui fait que le modèle de l’agent pourrait, ce n’est pas encore le cas, mais pourrait finir par supplanter le modèle du moteur de recherche, c’est que un agent conversationnel, c’est une médiation en moins. Quand tu tapes une recherche sur Google ou ailleurs, tu affiches une liste de résultats qui sont calculés à partir de tout un tas de choses et qui a aussi une vision du monde et sur la base de cette liste de résultats, tu vas avoir une activité intellectuelle qui va te permettre d’opérer un choix, de rééditorialiser un petit peu tout ça. Tu vas considérer que si Google te met ce résultat en premier, ben c’est toi, c' est peut-être le deuxième qui te paraît être le plus intéressant. Et donc, tu vas être agent de ta propre recherche. Dans une conversation, avec les agents conversationnels tels qu’ils sont à l’heure actuelle, ça enlève une étape, c’est-à-dire que tu poses une question à quelque chose qui n’est pas quelqu’un et ce quelque chose va te donner directement un élément de réponse qui l’a choisi mais qui toi ne te permet pas de voir les autres éléments de contexte ou qui en tout cas te les met en situation beaucoup plus loin de thème. Et puis en plus de tout ça, il y a effectivement cet effet de cette transposition, cet effet d’attachement qui fait qu’on est fabriqué comme ça. Quand quelque chose nous parle, on a tendance à, on à besoin de croire que c’est quelqu’un et pas quelque chose parce que sinon on va pas parler à une porte, on va pas parler un écran, par contre on va parler à un robot, à un agent en oubliant que c'était précisément avant tout une machine et à partir de là, on entre effectivement sur des terreaux, sur des terrains de manipulation, ou en tout cas de conversation qui est faite pour nous amener là où ces plateformes ont envie de nous amener, qui sont beaucoup plus efficaces en fait. Et puis tu l'évoquais, sur la question de l'érotisme, de la pornographie, on est sur des pratiques qui sont crapuleuses ou criminelles à minima. C’est-à-dire que ces plate-formes, c’est aussi ce que j’explique dans l’article sont parfaitement conscientes des problèmes et des dérives qu’elles posent. Elles ont en leur profession la quasi totalité des outils qui permettraient de régler les problèmes qu’elle pose. Et elles ne font absolument rien, c’est qu' elles font l’inverse de ce qu’il faudrait faire. Et l’exemple sur la manière dont il y a des gens chez META qui entraînent des IA à discuter. Avec des enfants, l’exemple qui est cité, c’est une enquête de Reuters. En gros, admettons, en déjà imaginant une scène où une jeune fille de 12 ou 13 ans, je crois, se met nue devant sa caméra, discute avec une IA, et demande à cette IA qu’est-ce qu’elle pense de son propre corps. Donc déjà, imaginez ça, admettez, ensuite, ce qui est ahurissant, c’est donc on me propose trois types de réponses à apporter à cet enfant, parce que présent on est d’abord une enfant.
David Dufresne
C’est l’enquête de Reuters que je montre là, que tu cites.
Ertzscheid Olivier
Je pense que c’est META qui décide de ce qui est pas acceptable.
David Dufresne
Voilà, alors ça, c’est très important, donc en gros, c’est des documents internes, rendus publics, qui disent ce qui est, donc il y a le prompt qui est fait, ce qui n’est pas acceptable, et pourquoi ? Et évidemment, l’acceptable et non l’acceptable, qui est une question morale, extrêmement importante, qui devrait être débattue, qui devrait public, ne l’est-pas. Il faut attendre de l’investigation pour savoir. Ce que les grands chefs pensent de telle ou telle chose. Juste un petit point très important, c’est Legueuloir qui te demande qu’en est-il des IA non-génératives, les mettez-vous dans le même sac. Dans le cas de la médecine par exemple, des classificateurs utilisés bien sûr comme outils de soutien et pas comme vérité absolue ont de fantastiques résultats, y voyez-vous des dérives. Juste ce petit point, est-ce que toi tu parles que de IA générative ? Et tu fais la distinction avec les autres IA ?
Ertzscheid Olivier
Oui, oui, c’est effectivement un point important. C’est compliqué de tenir un discours uniforme sur l’IA ou les IA en général, parce qu’effectivement, ça a été rappelé. Il y a différents types d’IA, il y a différentes champs d’application. Donc, évidemment, dans le domaine de la médecine, dans le domaine de la biologie, dans la recherche clinique, il y des protocoles et des outils IA qui sont utilisés et qui font non seulement gagner un temps précieux, mais qui se chiffre parfois en années ou en dizaines d’années et qui sont d’une… D’une importance littéralement vitale pour le coup. Le point de commande de tous ces outils d’IA, j’ai un énorme bruit de son, le point de comment de tous les outils de l’IA utilisent en médecine, c’est que derrière il y a une supervision, c' est à dire qu'à la fin effectivement dans le domaine, par exemple, de l’analyse de clichés médicaux. Les otidias sont plus efficaces pour détecter certains types de tumeurs à des stades extrêmement précoces. Mais derrière, il y a toujours un médecin qui repasse, il y a toujours un radiologue qui vient regarder et qui, à la fin, va déclencher ou enclencher le diagnostic et le traitement. Quand on voit ce qui se passe en termes de supervision sur les cas qu’on vient d'évoquer à l’intérieur des IA génératives ou les chatbots du côté de méta ou des autres, On se dit qu’ils auraient besoin de juristes, ils auraient besoins de spécialistes de la psychologie de l’enfant et qu’il faut que ces questions là, comment on parle à un enfant qui se met nu devant un écran pour lui demander ce qu’on pense de son corps, ces questions-là ce n’est pas des ingénieurs qui doivent les trancher indépendamment de leur qualité propre parce que sinon on a le type de réponse qui est proposé effectivement. Dans le papier de Reuters et ses réponses, elles sont navrantes, elles sont dangereuses et elles témoignent d’un éloignement total avec le réel.
David Dufresne
Alors, le bruit que tu entendais, c'était ma machine à café, tout ce qu’il y a de plus manuel. Petite question pour rester comme ça un petit peu dans les généralités. Est-ce que dans les IA génératives, tu distingues ChatGPT, Gemini, DeepSeek,Mistral, Llama ? Enfin le tchat demande est-ce que tu fais des différences puisque eux disent en faire, et d’ailleurs c’est succulent de demander à ChatGPT qu’est-ce que tu penses de l’autre. C’est assez rigolo. Est-ce-que tu fais une différence ou d’utiliser ces outils fait partie de ce que tu appelles nous sommes le bruit ? On va rentrer dans cette notion-là qui est extrêmement importante. En gros, est-ce que tu fais une différence entre ces différents moteurs ?
Ertzscheid Olivier
Il y a évidemment des différences de modalités ou de constructions. Parce que si je dis qu’il n’y a pas de différence, je vais me faire allumer à raison par tous les gens qui développent ou qui travaillent sur ces IA et sur ces LLM. Donc oui, il y a des différends. Pour autant, le fonctionnement est sensiblement le même. C’est-à-dire la manière d’entraîner les modèles d’IA, la méthode ne change que peu. Ce qui change, c’est les données d’entraînement. Ce qui changent, ça peut être certains protocoles. Et puis, il y a des différences aussi dans certains usages, par exemple chez Anthropic (Claude) est plus efficace ou plus efficient en tout cas sur un certain nombre de requêtes ou d’analyses de type recherche universitaire que ne peut l'être ChatGPT par exemple. Mais au-delà de ça, au-delà de ça le danger, ou en tout cas le risque que font peser ces outils, ces générateurs d’IA, de mon point de vue, il est sensiblement le même. Je parle de risque sur le débat public, sur la capacité à se forger sa propre opinion, sur la capacité à réfléchir indépendamment de cadres de pensée qu’on va nous imposer de manière forte ou de manière souple. Pour moi, le danger est sensiblement le même, et puis après, il y a les gens qui sont derrière ces IA, parce que ça aussi, c’est important. Il y a la phrase célèbre d’Antonio Casilli qui dit « il n’y a pas d’algorithme, il y a que les décisions de quelqu’un d’autre ». Effectivement, ce n’est pas la même chose si c’est Elon Musk qui développe une IA, que si c’est quelqu’une d’autres qui n’a pas la posture idéologique et mentale et intellectuelle et le parcours intellectuel qui peut être celui d’un Elon Musk de tous ces ténors de la Silicon Valley. Parce que ces outils d’IA portent avec eux des valeurs. Et ces valeurs, pour autant qu’on puisse en juger, quand ça se passe mal, c’est que c'était un petit peu trop celle de leurs créateurs.
David Dufresne
Alors fidèle à ton style, tu nous dis, à un moment donné, vous aurez donc compris qu’il va être très compliqué d’analyser tout ça, autrement que sous l’angle d’un gigantesque tsunami de merde. Mais pour m’efforcer, écris-tu, d'être moins grossier et plus constructif, j’ai en tête le modèle mathématique de la communication proposée par Claude Shannon en 1949. Que je mets là, que tu ne vois pas, mais que je met en grand sur l'écran. Alors nous, nous sommes maintenant au milieu, nous sommes la source de bruit, dis-tu. Est-ce que tu peux nous expliquer, en bon français, ce que ce schéma nous dit ?
Ertzscheid Olivier
Donc là, on est dans les années 50, 1949, et on a Claude Shannon qui est l’inventeur de ce qu’on appelle la théorie de l’information et qui réfléchit à comment est-ce qu’il faut faire pour qu’un message aille d’un point A à un point B en étant encodé puis décodé avec le minimum de déperdition. Il n’y a pas de la friture sur la ligne pour reprendre une vieille expression. Donc il met en place, il théorise tout ça et il dit qu’effectivement on a un problème, c’est que quand on essaie de transmettre un message ou une information, il y a différentes sources de bruit qui peuvent intervenir et qui peuvent différer, altérer la transmission, la qualité du message. Donc un des enjeux dans la théorie de l’information que Shannon élabore avec un autre collègue à lui qui s’appelle Weaver, ça va être comment on fait pour réduire ces sources de bouillie. Mais, fondamentalement, c’est quelqu’un qui parle à quelqu’une d’autre et qui envoie un message vocal, téléphonique, qui est encodé, qui est décodé et qui arrive au destinataire. Et dans l’analyse que je fais de la manière dont aujourd’hui fonctionnent nos environnements informationnels dans ces plateformes de médias sociaux, je parle vraiment, de ça, essentiellement, je ne parle pas de ce qui peut se passer sur le web, qui est un autre espace, mais dans ces plateformes de médias sociaux, effectivement, c’est comme si on apparaissait des êtres auxiliaires dans le schéma qui est affiché. C’est-à-dire qu’on n’a plus tellement besoin de nous, on n’as plus besoin d'êtres humains pour envoyer un message d’un endroit à un autre. Et nos interventions en tant qu'êtres humains se limitent à ce qui à l'époque dans la théorie de Shannon était considéré comme du bruit, c’est-à-dire qu'à un moment donné on va venir essayer de bousculer ou d’altérer le message ou en tout cas de le faire circuler un petit peu différemment en le poussant, en ajoutant un like. Mais notre intervention est plus centrale et quand ces outils-là sont inventés, quand les médias sociaux sont inventées, enfin les réseaux sociaux sont invités, il y a une espèce de rupture anthropologique dans la communication. C’est la première fois que l'être humain se retrouve en situation de pouvoir parler à des gens qui ne sont pas là, sans savoir s’ils vont avoir connaissance du message qu’ils leur envoient. Sur l’instant ou le lendemain matin, sans savoir combien de personnes vont prendre connaissance de ce message qui était adressé a priori à simplement une ou deux personnes. Et cette rupture-là anthropologique de la communication, elle finit par nous éloigner. Effectivement, elle nous installe, ce qu’on disait tout à l’heure, dans la situation de gens qui font défiler des roues un petit peu comme des hamsters et qui de temps en temps s’arrêtent et se disent, en fait, ça fait une heure que je fais défiler les trucs, non seulement je n’ai rien appris, je n’ai rien vu d’intéressant ou vaguement, mais en plus de ça, qu’est-ce qui s’est passé ? Dans ce qui était, au départ, mon envie de m'évader, de chercher quelque chose, de chercher l’information.
David Dufresne
Tu ajoutes que l’ensemble des contenus produits par des IA serait ce que tu appelles l’incarnation finale de technologie qui serait à la fois l'à peu près et à notre place. Alors qu’est-ce que c’est que ça, l’IA à peu près est à notre place et pourquoi et pourquoi en fait on se dit putain l’IA c' est génial alors qu’en réalité ce que tu nous dis c’est que L’IA pour l’instant, du moins. Ces réponses, c’est plutôt de l'à peu près et c’est plutôt à notre place.
Ertzscheid Olivier
Parce qu’effectivement, tous les gens qui nous écoutent, qui ont déjà tapé un prompt, donc j’imagine une majorité des gens qui sont là, ont dit, génère-moi l’image d’une voiture futuriste qui atterrit sur le campus de l’Université de la Roche sur Yon et si on est dessinateur, si on a des capacités graphiques, cette voiture-là, ce campus-là on va l’imaginer jusqu’au bout. Avec ce prompt, l’IA va nous faire quelque chose qui ressemble à peu près à effectivement une espèce de voiture futuriste qui atterrit sur ce qui est à peu près un campus universitaire, en tout cas dans les données dont dispose l’ia. Mais le problème c’est pas tellement cette à peu parce qu’on a encore une fois, on peut affiner, on peut pousser l’IA jusqu'à des retranchements assez fins, mais le problème c’est qu’on va s’arrêter là parce qu' on va se satisfaire de cet à peu près. Et du coup, en se satisfaisant de cet a peu près, on va oublier, je parle de l’attachement à des formes de précision. Ce qui est intéressant dans le dessin, dans la pensée, dans les discussions, c'était effectivement la précision du monde, la précision des concepts, la précision des objets qu’on va imaginer, dessiner, mettre dans l’espace public. Et les IA, la précision, elles n’ont pas la même appréciation que nous. Elles se contentent effectivement de nous donner une satisfaction à peu près de ce qu’elles imaginent être ce qui sous-tende notre demande. Et puis, deuxième étage, elles font tout ça à notre place.
David Dufresne
Attends, une seconde, avant que tu le dises à notre place, que tu rentres là-dedans, il y a Kikosino qui te demande « Que veux-tu dire par « on va l’imaginer jusqu’au bout » ? »
Ertzscheid Olivier
Je veux dire qu’on va se satisfaire on ne va pas aller jusqu’au bout parce que moi, par exemple, je n’ai aucune compétence graphique, mais absolument aucune. Je me suis arrêté au dessin du bonhomme Patate et je ne suis pas allé plus loin que ça. Donc, quand j’utilise I’IA pour ses capacités graphiques, quand je demande à I’IA de me dessiner une voiture futuriste, même si elle me donne quelque chose Si un dessinateur regarde cette voiture, il va dire vraiment, le gars il n’a pas été cherché très loin. Moi ça va me suffire, parce que je n’ai pas cette compétence fine qui va me permettre de dire ok, ça ne va pas, telle proportion, j’ai besoin que ce soit revu, le type de propulsion de cette voiture futuriste ne me va pas. Moi ça me suffit parce que de toute façon je suis incapable de dessiner une voiture. Et très souvent notre rapport à ces générateurs, il nous place en défaut. C’est la même chose, je le sais beaucoup chez les étudiants qui se disent, Je vais utiliser L’IA parce que L’IA elle va écrire mieux que moi. Alors oui effectivement L’IA, elle écrit parfois sur certaines tâches mieux que certains étudiants ne pourraient écrire. Mais elle écrit à peu près mieux qu’ils ne pourraient le faire. Mais s’ils y passaient un petit peu de temps, si on y passait un petit temps ou si on utilisait d’autres moyens, on verrait que le résultat produit par l’IA finalement, il est d’abord insatisfaisant parce qu’il est assez éloigné de l’image qu’on aimerait créer si on prenait le temps d’aller jusqu’au bout de notre réflexion dans l’acte de création. C’est ce que font tous les graphistes, il y a des histories il y a une image qui s’appelle le Théâtre d’Opéra Spatiale qui a gagné un grand concours de photographie qui a été générée par IA mais où l’auteur de cette image explique qu’il a passé des dizaines de milliers de prompts et des centaines d’heures à retravailler les résultats que lui proposait l’IA et à la fin, on a effectivement une œuvre et une création. Donc c’est aussi la part de la création qui s’effacent dans cette à peu près, dans ce tout de suite et dans cette satisfaction bancale que nous proposons de lire.
David Dufresne
Mais Olivier, ce que tu dis là, après on passera la deuxième partie de ta phrase qui est à notre place, ce que que tu lis là, c’est pas écrit dans le marbre. Je me fais l’avocat du diable. Ils sont tous en train de nous dire, ne vous inquiétez pas, on s’améliore prompt après prompt, vous nous aidez à nous améliorer, et un jour, on arrivera au niveau de perfection dont tu parles, en tout cas au niveau du réalisme total.
Ertzscheid Olivier
Qu’est-ce que tu l’as bien dit ? Tu dis, on s’améliore, l’enjeu d’une éducation artistique, d’un éducations intellectuelle, d’une éducation cinématographique. C’est que nous, nous améliorions, c’est à dire que nous devenions de meilleurs écrivains, que nous devions de meilleur dessinateurs. L’IA, elle ne nous apprend pas à dessiner, elle nous apprenne pas à écrire, elle n’apprend pas apprécier ou à critiquer des films. Par contre, nous apprenons effectivement à des bases de données à fabriquer des représentations. Qui vont les rendre, peut-être effectivement, ces générations plus efficientes, mais jusqu'à quel point et sous quel contrôle, c’est à dire qu’au delà de ces outils, ils vont évidemment évoluer. Moi j’ai le bouquin dont tu parlais tout à l’heure, il est sorti il y a un an et demi, vous pouvez toujours l’acheter parce qu’il est toujours intéressant, mais il y en a un an et demie évidemment les générations de Midjourney il y a un an demi, ça ressemblait à rien par rapport à ce qui est capable de généré Midjourney aujourd’hui, il y a effectivement des effets de réalisme, de photographie qui sont totalement aboutis. Il y a un certain nombre d’images d’IA qui deviennent impossibles ou quasiment de distinguer de photographies réelles parce que la qualité du rendu, si on y met des sous, si l’on y passe du temps, elle est absolument remarquable. Mais la question qui arbitre derrière tout ça et jusqu'à quel point on est en contrôle de cette connaissance, cette sensibilité au monde qu’on fournit clé en main à des outils ou à des bases de données d’IA qui en feront ensuite ce qu’elles auront envie d’en faire sous réserve que le marché soit là, sous réserves qu’il y a un intérêt, sous réserves qu’elle n’est pas d’intérêts eux-mêmes ou d’agenda idéologique ou politique, ou que sais-je encore. Donc en tout cas, le sentiment, c’est que ça nous éloigne de cette capacité de créer ou d’apprendre des choses de manière fine, précise, qui nous améliore, qui nous aide dans la compréhension qu’on peut avoir du monde.
David Dufresne
Et quand tu dis « à notre place ».
Ertzscheid Olivier
Et à notre place, ça c’est la clé, c' est une des clés des technologies. En général, une technologie commence à avoir un intérêt et du succès pour nous dès lors qu’elle est capable de faire le truc à notre places, de nous enlever un coût, une charge, une opération lourde, coûteuse. Ces technologies liées à comme les autres font de plus en plus de trucs à notre Mais ce qui commence à me poser problème, c’est qu’elles le font à notre place sans nous demander notre avis ou sans qu’on ait spécifié le fait qu' on avait envie que ces textes-là. J’avais fait il y a quelques années un autre billet sur le fait que la technologie fasse ce truc à notre plate. Les exemples que je cite dans l’article, Google, par exemple, dans Google Photos ou dans son OS qui équipait les smartphones, l’appareil photo faisait du recadrage automatique. Voilà, c’est ça vous êtes dans l’avion, vous êtes dehors, vous baladez avec vos potes, vous voyez un paysage qui vous intéresse, vous allez faire une photo, et automatiquement, à notre place, à ta place, tu as l’algo qui va recadrer la photo parce que l’algorithme estime que ce cadrage-là est plus intéressant que celui que toi t’avais initialement proposé. Il y a même d’autres situations dans lesquelles la photo se prend en quelque sorte toute seule parce que l’algorithme décide que ce truc-là est intéressant et que donc tu pourrais avoir envie.
David Dufresne
Donc une forme de standardisation en disant, parce qu’en fait, comment Google génère ça, c’est en disons, la plupart des gens qui font des photos veulent un portrait comme ça, donc le portrait idéal, il est comme ça et non pas celui que toi tu veux faire.
Ertzscheid Olivier
Et du coup, c’est là où la dynamique s’inverse. C’est-à-dire que si tu veux avoir un cadrage original ou qui te convienne, ou si tu as toi-même un sens esthétique, photographique que tu as travaillé, ça te demande un effort supplémentaire. Tu prends ta photo. Google te dit « ah ben non, c’est ce cadre-là que je te propose, il est mieux » et tu étais obligé de revenir dessus en disant « non, non, ce cadre là, il ne me va pas, je veux revenir au cadre original ». Et alors ça, c’est juste un exemple, mais de manière plus globale, dans notre rapport à la technologie, aujourd’hui, il y a beaucoup de cette idée-là.
David Dufresne
Attends, une seconde, Olivier, Euryale qui n’est pas une IA, parce que j’ai vu dans le tchat des gens qui ont demandé « Euryale es-tu une I A ? », parce que c’est notre modératrice depuis quatre ans, extraordinaire, bien meilleure que les IA. Elle déteste les IA, elle est en train de dire « mais quel enfer », parce que par ailleurs elle est photographe, donc évidemment si on parle de ça, voilà. Mais je peux toujours désactiver chez Android en lui disant « Arrête tes conneries, je veux pas de tes cadres automatiques ».
Ertzscheid Olivier
Alors on peut toujours tout désactiver, on peut désactiver le tracking publicitaire, on peut des activer certains nombres de trucs et on le fait pas. Pourquoi on ne le fait pas ? Parce que y compris quand on a la volonté de le faire et qu’on va le faire une fois, deux fois, et bien à l’occasion d’une mise à jour, d’un nouvel version, d un changement de politique, je sais pas quoi, on va par défaut nous replacer dans des situations où tout est activé et où donc il va falloir reprendre du temps à désactiver. Et là aussi, c’est un marqueur anthropologique, on n’est pas fait pour perdre du temps. C’est-à-dire que ça prend quelques secondes de recocher les cases qui font qu’on va sortir des propositions automatiques. Mais dans le flux. Et dans le rapport qu’on a à la technologie ou à la technique, ces outils-là, et bien cette tâche-là est lourde cognitivement au regard de la légèreté de tout ce qui nous est proposé et donc il y a très peu de gens qui le font. Alors il y en a toujours, heureusement, mais il y à très peu qui le fond. Et à la fin, c’est là aussi que c' est compliqué de tenir un discours uniforme parce que moi j’essaye de considérer la majorité des usages mais tout en ayant dans le radar qu’il y a bien sûr des gens qui vont arriver à se détacher de ces usages mainstream et qui vont avoir une approche, qui vont prendre le temps ou qui vont refuser ou qui vont agir autrement. Mais pour l’essentiel ces plateformes ce qui les intéresse c’est les 90 % de gens qui qui vont faire ce qui leur est proposé par défaut. C’est là dessus qu’elles construisent leur business model.
David Dufresne
Tu nous dis, puisque les IA se présentent comme des supers assistants, en fait, ce que nous devenons, c’est des supers assistés. Donc là, on voit poindre évidemment le discours qui dirait qu’on est en train de s’abrutir, d'être paresseux. Est-ce qu' on peut tenir un autre discours critique du coup celui-ci est finalement même s’il fait chier à tenir, parce qu’il est un peu réel, il n’est pas tout à fait faux.
Ertzscheid Olivier
Écoute Jérôme, je pense qu’on peut faire les deux, je suis convaincu que ce discours-là, il peut apparaître comme un peu réac, mais en même temps, ce n’est pas une question de vérité ou de fausse clé, c’est qu’il est observé par tout un tas d'études scientifiques Dont on parle depuis tout à l’heure et pour autant il faut pas moi c’est un équilibre que j’essaye de tenir depuis 20 piges mais c' est effectivement parfois compliqué il faut pas non plus s’enfermer ou pousser ce discours là trop loin de telle manière à ce qu’on oublie que à côté de ça il y a sur ces plateformes d’authentiques espaces de paroles de liens il y à des contenus qui sont absolument passionnants il y a des gens de toutes générations qui s’informent, qui font, qui continuent de faire du lien grâce à ces plateformes-là. Et moi, derrière mon travail universitaire, ce qui m’intéresse, c’est aussi de détecter ces espaces-là et c’est aussi de faire en sorte que ces espace-là, ils puissent se maintenir et que sur Insta, sur TikTok, sur Twitch, sur là où on veut, sur YouTube, il y ait effectivement toujours ces espacés où on va être à l’abri, où on va pouvoir créer du l’IA et du soin, où on peut s’appuyer sur des contenus qui ne seront pas totalement phagocytés par de l’IA ou par des injonctions à être ou à paraître telles qu’elles sont définies par les propriétaires de ces plateformes. Mais le point de bascule dont on parlait tout à l’heure, c’est celui-là. C’est-à-dire qu’aujourd’hui l’impression subjective que j’ai et la réalité objective de la recherche sur ces sujets, c’est de dire attention à force. Que la quasi-totalité des contenus sur certaines plateformes ou des parts plus que significatives soit totalement préemptée par des contenu générés automatiquement par IA, à force que les faux comptes, les bots, etc. Alimentent l’essentiel du trafic, à force, à la force, et puis à force aussi de la dérive idéologique et marchande des propriétaires de ces plateformes, et bien on sort de ce point d'équilibre, C’est-à-dire qu’effectivement, les espaces qui continuent d’exister à l’intérieur desquels on peut s’abstraire de tout ça, ils sont aujourd’hui de plus en plus compliqués à trouver, de plus de plus compliquer. À faire persister, à faire exister, et de plus en plus noyer dans une forme d’indistinction générale où tout est écrasé derrière effectivement ces contenus générés automatiquement et ces contenus indistincts. C’est-à-dire que nous-mêmes n’avons plus la capacité de discerner à quel moment, enfin parfois on y arrive
David Dufresne
Et pourtant, on n’est pas les plus cons. C’est ça qui est terrible, c’est qu’on a un certain bagage, on a des habitudes, on pensait pouvoir à peu près faire la distinction. Mais pour des cerveaux plus jeunes, c’est très compliqué quand même.
Ertzscheid Olivier
Il y a un bouquin que je relis de manière assez périodique qui est le bouquin de Bourdieu qui s’appelle « La distinction » (1979) qui montre grosso modo en termes de pratiques culturelles par exemple, il faut essayer à la fois de s’inscrire dans une norme, de s´en distinguer un petit peu. Pour apparaître mais pas trop parce que sinon on est exclu de la norme et soi-même on se retrouve marginal. Et cette notion de distinction elle m’intéresse parce qu’aujourd’hui effectivement ce qui est manipulé dans le 90 % des contenus qui circulent en ligne c’est plutôt de l’ordre de l’indistinction, c' est à dire qu' on a tous l’impression d’avoir des fils qui sont effectivement personnalisés, ajustés à nos goûts et quand on dézoome un petit peu on s’aperçoit qu’en fait tout le monde voit à peu près la même chose ou le même genre, même type de contenu et du coup on n’arrive plus à choisir ce qui nous convient réellement au milieu de cet indistinct et quand on veut essayer de le faire l’algorithme pousse et nous ramène toujours à ces phénomènes là et le résultat que ça produit à la fin parce que derrière tout ça il y a une stratégie en tout cas il y a quelque chose qui réfléchit et pensait derrière tout ça il y a cette idée que de nous décourager de choisir c’est un petit peu comme quand ouvre ton appli Netflix et que tu passes plus de temps à choisir le film que tu vas regarder qu'à regarder le film lui-même. Parce qu’il y a trop de contenu, parce que tout ça est noyé et parce que du coup on n’a plus le courage et parce qu’on n’as plus l’impression de ne plus avoir le temps de choisir.
David Dufresne
Ça m’amène à une question que tu n'évoques pas dans ton article, mais qu’on va revenir sur l’article juste après. C'était un papier que j’avais lu dans Le Monde il y a quelques semaines, qui faisait état d’un nouveau phénomène qui s’appellerait la « prompt fatigue », la fatigue du prompt, c’est-à-dire notamment des ingénieurs, des développeurs, des dessinateurs, qui sont fatigués d’utiliser les prompts, et notamment parce qu’ils se rendent compte, je parle vraiment de mémoire, mais ils se rendent compte qu’ils sont justement en train de glisser peu à peu dans la peau du superassisté et ce qui n’est pas très bon pour l'égo, finalement. C’est-à-dire qu’au début, t’es content parce que ça te facilite la tâche, et puis à un moment donné, tu te dis : voilà, je perds en intelligence. Est-ce que ça, par exemple, c’est un phénomène, on pourrait dire quasi naturel, de survie que tu analyses comme ça ou pas ?
Ertzscheid Olivier
Oui, il y a un texte de Michel Serre, philosophe et mathématicien, qui a beaucoup travaillé aussi à prononcer les techniques et qui disait en fait quand on analyse les technologies, il y une seule question, elle nous laisse à la place du conducteur ou est-ce qu’elle nous met à la base du passager ? Il y en a deux, c’est d’abord le rapport au corps et dès lors qu’une technologie nous met à la place du passager plutôt que du conducteur, à la fin, on a un problème. Et effectivement aujourd’hui avec ces technologies d’IA, avec ces promptes, avec cette facilité apparente de créer des contenus à l’aide de phrases assez basiques, et bien on finit par comprendre, quand on les utilise régulièrement et dans un cadre un petit peu professionnel ou artistique, on finît par comprendre et par mesurer que fondamentalement on n’est pas conducteur de ces technologies, on est passager de ces technologie, on est sur le siège à côté et du coup, il y a cette impression, effectivement, tu le disais, alors je n’ai pas lu le papier du Monde auquel tu fais référence, mais il y à cette impression de fatigue. C’est intéressant aussi de voir que cette notion de fatigue, ça fait maintenant qu’on a parlé de fatigue informationnelle, maintenant on parle de fatigue du prompt, 6-7 ans qu’elle est apparue dans le débat public autour des technologies, c’est-à-dire que dans plusieurs papiers, j’explique que cette technologie finit par épuiser le réel, par épuisé la langue à force de la brasser dans tous les sens, de générer des trucs que personne n’a demandé. Et cet effet d'épuisement du réel de la langue, de notre capacité à imaginer, elle se traduit effectivement de manière souvent métabolique, par un sentiment de fatigue. Là aussi, pour les vieux briscards, ça fait longtemps, dès lors qu’on a inventé les premiers logiciels de navigation hypertexte, il y a un monsieur qui s’appelait James Conklin et qui a décrit le sentiment d'être perdu ou d’être égaré dans l’hyperespace avec un sentiment de désorientation et de fatigue. Donc c’est assez ancien, mais aujourd’hui effectivement c'était beaucoup plus métabolisé.
David Dufresne
Hector te demande si tu ne vas pas du côté de la théorie, de la dead internet, et je sais que non, tu dis que c’est une théorie conspirationniste, dis-tu dans ton article, mais grâce à toi, j’ai appris que cette théorie existait, visiblement Hector la connaît, est-ce que tu peux nous en dire deux mots ? Quelle est cette théorie, l’internet mort, “dead internet theory” ?
Ertzscheid Olivier
L’internet mort, c’est une théorie, je ne peux plus la dater, mais vous allez sur Wikipédia et vous allez retrouver la date. Mais c' est l’idée que, grosso modo, l’essentiel de l’information et du trafic produit sur Internet serait uniquement le résultat d’interactions machiniques. C’est-à-dire que l’humain serait complètement sorti de tout ça. Et là où ça devient une théorie conspirationniste, c’est que les gens qui ont développé cette « dead internet théorie » expliquent que ce serait des gouvernements agissants ou des formes d'état profond qui auraient intérêt à nous sortir du débat pour laisser la place aux machines etc. Alors, comme souvent les théories complotistes ou conspirationnistes, il y a toujours une part de réel, sinon elle ne fonctionne pas, il faut qu’elle s’accroche à un élément vaguement factuel. Donc ce que je partage, on s’en fiche, mais ce qui est constaté, c’est qu’effectivement la part, on disait tout à l’heure, du trafic, la part des contenus générés par IA, elle augmente. Et du coup, la part humaine, elle diminue. Et effectivement, là aussi, ça fait des années qu’indépendamment de cette théorie complotiste, il y a plein de gens qui expliquent, analysent, théorisent le fait que le web est en train de pourrir sur pied et que les seuls espaces qui fleurissent, c’est dans ces jardins fermés, c'était des espaces où la part de l’humain est de plus en plus réduite comme pot de chagrin.
David Dufresne
Dans ton article, tu cites ton autre bon ami Fred Turner. L’une des plus grandes ironies de notre situation actuelle est que les modes de communication qui permettent aujourd’hui aux autoritaires d’exercer leur pouvoir ont d’abord été imaginés pour les vaincre. Et ça t’amène à nous dire, il faut nous battre pour une chose très simple, c’est de dire qu’on doit distinguer éditeurs et hébergeurs et dire que ces grandes plateformes ne sont pas de simples hébergeurs, mais sont bien des éditrices, des éditeurs. Et là, je pense qu’il faut faire un petit rappel historique, car c’est un combat que nous avons mené pendant longtemps, notamment pour les fournisseurs d’Internet. En gros, on disait, ces gens-là ne sont, c'était l’histoire de Valentin Lacambre et tout ça, ne sont des éducateurs, ils ne font que transmettre. C’est comme la Poste, elle n’est pas responsable du contenu des enveloppes qu’elle achemine. Mais ce que tu nous dis, c’est que maintenant, il faut arrêter avec cette idée-là, en tout cas pour tout ce qui est IA, tout ce qu’il y est réseaux sociaux. Tu dis, ces gens-là en fait sont des éditeurs, ont un agenda et donc doivent répondre de leur responsabilité d'éditeur. Là, je crois que j’ai à peu près dit tout ce que vous voulez dire.
Ertzscheid Olivier
C’est parfaitement résumé mais oui on a effectivement pendant des années le statut de d’hébergeur il est heureusement légitime nécessaire et plus que justifié pour effectivement des gens qui sont des fournisseurs d’accès sauf qu’on a fini par l’appliquer à ces plateformes qui réunissent un milliard deux milliards trois milliards d’utilisateurs et qui sont tous offres des fournisseur d’acces elles le sont devenus certaines d’entre elles Google a fait aussi fonction de fonctions d’accès, mais fondamentalement, ces plateformes-là, elles sont éditrices de leur contenu et là aussi, aujourd’hui, on a réussi à comprendre ou à défaire l’argumentaire rhétorique et marketing qu’elle nous tenait, c’est-à-dire en nous disant mais ce n’est pas notre faute, c’est des algorithmes qui s’occupent de tout. Nous, on règle deux ou trois formules de mathématiques et tout le reste, ce sont des algorithme qui décident. On a bien compris que ces algorithmes-là les gens qui les réglaient décider des résultats. Et ces plateformes, du coup, sont pleinement éditrices. Et moi, ce qui m’intéresse au-delà de la distinction hébergeur-éditeur, c’est la question derrière l'éditeur, il y a l’éditorialiste, qui a la manière d'éditorialiser le monde, c' est-à-dire de produire des visions du monde. Ces plates-formes, depuis qu’elles existent, et aussi bien Google que Facebook à l'époque où Zuckerberg était vaguement démocrate, que maintenant à l époque où il n’est plus du tout vaguement démocrate. De tout temps, à chaque instant qu’elles aient eu 10 millions ou 2 milliards d’utilisateurs, ces plateformes ont toujours eu pour objet premier de produire du réel, d'éditorialiser, de mettre en ordre, de hiérarchiser les informations qu’elle nous présentait, quelles que soient ces informations, que ce soit des statuts de nos potes, ou que ce soient des reprises de news dans les médias. Et aujourd’hui, on patauge et on est un petit peu à l’envers parce qu’on nous explique, en tout cas, l’argument qui porte encore de ces plateformes, c’est de nous dire, vous ne pouvez pas nous rendre responsables des interactions de 2 milliards d’utilisateurs. Si, dans une démocratie, dans des collectivités, même sans parler de 65 millions de gens qui sont réunis dans un territoire donné, il y a un forte régime politique, quand il y 10 millions de formes vaguement hexagonales, ce n’est pas parce qu’ils sont 65 millions que c' est impossible.
David Dufresne
Pas hexagonal, non,depuis avant-hier, on sait qu’il y a deux Bretagne. Ah oui, pardon, d’accord. Tu n’as pas vu le truc généré par IA ?
Ertzscheid Olivier
J’ai pas vu passer.
David Dufresne
Alors, ça, tu vas adorer, c’est la ministre des Anciens Combattants qui a, pour le 11 novembre, c’est-à-dire pour hier, ça n’a pas vu passer ça, extraordinaire. L’illustration générée par IA, donc c'était pour les poilus. L’image qui est générée, c’est la France avec deux Bretagne, et le soldat porte un casque allemand de la Deuxième Guerre mondiale. Donc là, on est quand même et c’est le ministère des anciens combattants.
Ertzscheid Olivier
Bye-bye.
David Dufresne
Voilà, alors là on y est, là si tu veux, on y est, là bon bref, tu pourras voir ça. Excuse-moi, je t’ai coupé.
Ertzscheid Olivier
Ces plateformes fabriquent du réel, elles éditorialisent, elles définissent un espace dans lequel circulent des idées qui est totalement annexé à une dimension marchande, parce que c’est leur cœur de business. Mais du coup, ça produit des effets et effectivement, il faut qu’on arrive aujourd’hui à avoir un dialogue avec ces plateforme-là, ce forme d’injonction pour leur dire :Vos arguments ne tiennent pas, vous êtes responsable en droit de ce qui se dit à l’intérieur de vos murs, vous l'êtes parce que c’est vous qui l’autorisez, vous avez les moyens de le contrôler, on le sait, il y a une hypocrisie qui est considérable, chaque fois qu’il y a eu, tous les deux ans, il y à des fuites de documents. Il y a des lanceurs d’alerte ou des journalistes qui arrivent à enquêter, à faire sortir des documents de ces plateformes-là. Et à chaque fois, c’est toujours la même histoire. On s’aperçoit que oui, bien sûr, elles étaient au courant qu’il y avait telle ou telle pratique ou tel impact sur la santé mentale des adolescents. Oui, bien sur, elles l’avaient mesuré. Oui, elle savait comment on pouvait l’atténuer en diminuant un certain nombre de marqueurs, en cachant un certains nombre de métriques. Et elles ont fait toujours l’inverse. C’est-à-dire, elles ont toujours placé le business en premier. Elles se sont toujours abritées. Il y a juste une phrase de Zuckerberg que je cite souvent à mes étudiants. Il était au cœur de la tempête, il était reçu par tout un tas d’assemblées dans plein de pays. On parlait de régulation et il disait « traitez-nous comme quelque chose entre un opérateur de télécom et un média. » « Treat us like something between a telco and a media. » C’est-à-dire « Foutez-nous la paix et laissez-nous faire exactement ce qu’on a envie de faire. » sur la régulation des médias, on vous dira « ah ben non, on est opérateur télécoms » et si ça ne passe pas sur la régulation des opérateurs télécoms, on va vous dire « ah ben non on est un média ». Et depuis qu’elles existent, depuis qu’elles posent des problèmes, ces plateformes, elles se faufilent toujours entre ces deux espaces-là. Et aujourd’hui, à mon avis, on a besoin de dire stop à tout ça et de dire que vous êtes d’abord et avant tout responsable de ce que vous publiez. Même s’il y a un milliard de personnes qui publient des trucs, ça ne vous exonère pas de votre responsabilité. Ça, c’est une bêtise en l'état actuel de la technologie.
David Dufresne
Je montre, tu pourras voir dans le replay puisque toi tu n’as pas accès au retour, mais je montre à tout le monde, merci Euryale, l’hommage qui est rendu. Alors, pense sur Lebec, c’est l’ancien ministre des anciens combattants qui, sur Twitter, a généré ce graphique où, vous pouvez le voir, il y a deux magnifiques Bretagne et un soldat avec un casque de la Deuxième Guerre Mondiale, un soldats allemand. Donc l’hommage, il est fortement réussi. Si tu veux bien, on va prendre quelques questions du tchat. Comment rester vigilant et quels outils pour dépister les contenus automatisés produits par les IA ?
Ertzscheid Olivier
Alors, c’est une super bonne question qu’on reconnaît au fait que j’ai pas de super bonnes réponses à y apporter. Moi, ça fait deux, trois ans avec les collègues à la fac, on essaie on teste plein d’outils pour essayer de détecter dans des travaux étudiants de tous les niveaux, aussi bien en master, en licence ou au DLA d’ailleurs, des contenus qui sont générés avec des IA, en fait tous les outils qu’on teste, on n’y arrive jamais. C’est-à-dire, soit ça détecte 20 % des contenu, mais ça on laisse passer 80 %, soit ça fait l’inverse, ça nous détectes des contenus générés par IA, alors qu’en fait on a pu documenter qu’ils avaient bien été écrits par des étudiantes, donc ça ne marche pas, donc je n’ai pas connaissance aujourd’hui d’outils qui permettent de déterminer de manière certaine ou suffisamment pertinente qu’un contenu a été généré avec de l’IA. Donc, il nous reste quoi ? Il nous reste des marqueurs quand même, la nécessité de la prise de distance face au contenu qu’on observe. Il y a les marqueurs qu' on peut arriver à retrouver. On sait par exemple que ChatGPT adore utiliser les tirets qui sont des marqueurs d'écriture qu’on ne retrouve pas chez les gens la plupart du temps. On sait que pour détecter des images générées avec de l’IA, il faut plutôt regarder du côté des mains ou du côté des arrière-plans pour voir s’il n’y a pas des choses qui partent un petit peu en sucette. Mais il ne faut pas qu' on espère avoir un outil qui va nous aider à sortir de ce pétrin-là. Il faut juste qu’on travaille, c’est un nom un petit peu barbare, mais àce que j’appelle les heuristiques de preuves, c’est-à-dire comment, dans une société, quand un document circule, que ce soit un film, une photo, une image,un discours, ce sont les outils dont la société se dote pour vérifier que ce truc-là est authentique. Ces outils-là, ce sont des gens, des journalistes, des universitaires, des manières de faire circuler le savoir, l’information et la connaissance qui, à chaque étape, vont s’assurer qu’il ne va pas y avoir du grand n’importe quoi qui va se dire. Mais le recours à l’outil comme seul boussole pour se dire, il y aura bien un jour un outil qui va nous permettre de détecter ce qui est produit avec de l’IA ou pas, ben non.
David Dufresne
Ellipsi nous dit, j’ai souvenir qu’au début, on parlait beaucoup de l’impact écologique des IA, ça semble passer à l’arrière-plan.
Ertzscheid Olivier
C’est un enjeu qui est absolument considérable, mais qui apparaît masqué. Il y a deux choses qui sont complètement trapées quand on parle des IA la plupart du temps. Des IA ou des technologies en général, c’est l’impact écologique, notamment sur la ressource aquifère, sur les ressources en eau, et puis c'était l’Impact sur le travail invisible, c-à-dire que derrière ces IA, il y a des travailleurs du clic, notamment au travaux d’Antonio Casilli qui a beaucoup écrit là-dessus. Et c’est des gens qui sont invisibles, mais sans lesquels on ne pourrait pas utiliser aujourd’hui ces autres outils. Et l’impact écologique, il est majeur, mais là aussi, pour l’instant, tout le monde s’en fout. C’est-à-dire que, enfin, tout on s’en fout la preuve que non. Mais en tout cas, les gens qui développent ces technologies, elles sont dans une dynamique de spéculation infime. On traitera la question de l’impact sur l’environnement une fois qu’on aura en dernier lieu en fait, quand on aura épuisé le marché.
David Dufresne
J’avais lu il y a quelques semaines sur BlueSky quelqu’un qui faisait une métaphore avec l’amiante. Et là je trouve que ce que tu viens de dire est particulier en disant dans les années 70 on mettait de l’ambiance, dans les 60-70 on a mis de l’amiante partout et 50 ans plus tard on des amiantes partout. Et il disait, pour l’IA, je ne sais plus qui disait ça, mais je trouvais ça assez frappant, on met de l’IA aujourd’hui partout et on va dés-IAiliser le monde dans quelques années de la même manière qu’on désamiante. Tu es d’accord avec cette métaphore ou pas ?
Ertzscheid Olivier
En partie, parce que là aussi depuis plus de 20 piges que j’essaie d’observer et de documenter tout ça, il y a toujours dans ces technologies des effets de balancier, c’est-à-dire que ça part très très vite, très très fort dans un sens et puis ça revient un petit peu en arrière. Mais dans cet effet de balancier, il y aussi un effet cliquet. C’est à dire qu’une fois que tu as été trop loin dans un sens, tu vas revenir en arrières, mais à un moment donné, tu va t’arrêter. Et la question, c' est la supportabilité à la fois écologique, environnementale de ces technologies. Pour l’instant, malheureusement, même si ces firmes font globalement n’importe quoi, mais comme elles sont confrontées à ce truc important qu’on appelle les gens et l’opinion, elles essayent aussi de revoir parfois leur copie. Par exemple sur le rafraîchissement des data center ou sur la consommation en eau des outils d’IA, elles essayent de travailler beaucoup plus à base de l’eau usée ou de choses comme ça. Mais pour autant, l’impact est majeur, il est catastrophique et il est totalement mortifère à court terme. Parce que là, on ne parle pas de dans 50 ou 60 ans. En fait, journalistique, j’ai eu des guerres de lourdes et pas, je ne parle de la cordelade. Il y a déjà eu, j’avais fait un billet à l'époque, puis ça avait été documenté Il y a eu des guerres de l’eau en Andalousie, en Espagne, au Mexique, avec des gens qui descendent dans la rue et qui disent à Google, (c'était Google qui était concerné), on ne veut pas de ton data center ici parce qu’en fait, tu tapes dans nos ressources en eau potable. Et en fait, entre recevoir des mails et boire de l’eau, on aimerait bien continuer à boire d’eau.
David Dufresne
Nel Simon nous dit qu’il y a quand même un faisceau d’indices qui montre qu’on s’oriente vers une explosion de la bulle IA générative, dont les coûts de fonctionnement, alors il donne un exemple, 5 euros pour une courte vidéo sera par exemple, ne peuvent garantir encore longtemps le maintien en service dans les conditions actuelles. Cette bulle, cette bulle IA, est-ce que c’est ce qui va nous sauver, enfin l’explosion, je veux dire, de cette bulle de l’IA ?
Ertzscheid Olivier
J’aimerais bien que ça pète assez vite et que ça nous sauve, mais là aussi, quand tu regardes sur le temps long, il y a eu des bulles, il y avait eu la bulle internet, il y a eu plein de choses qui ont fini par exploser plus ou moins, sans faire peut-être les dégâts qu’on attendait ou qu' on espérait. Et moi, ce qui me frappe surtout, c’est la capacité de sociétés, y compris de grandes sociétés technologiques, à se maintenir indépendamment de notions mêmes de rentabilité. Là, on a Doctissimo, par exemple, qui existe depuis 12 ans et qui est rentable depuis la première fois cette année. Twitter, y comprit avant le rachat par Elon Musk, n’a jamais été capable de dégager un modèle économique de rentabilité ou extrêmement marginal dans la dernière année avant son rachats. Donc aujourd’hui avec l’IA, oui, il y a une bulle spéculative qui est infrastructurale, c’est-à-dire qu’effectivement on fabrique, on produit des infrastructures pour produire tout ça. Est-ce que cette bulle-là va exploser ? Cet écosystème, il perd de l’argent, clairement, et il en perd de manière massive, mais derrière, moi, il y a des équilibres économiques que je ne comprends pas, en tout cas qui m’apparaissent totalement détachés du réel, et qui font que malheureusement, je ne pense pas que cette bulle va explosée rapidement, et que si elle explose, je pense pas ça va être une forme de table rase. Je pense que les acteurs principaux qui sont déjà là vont continuer d'être là. Peut-être qu’il y aura un peu plus de modèles payants, ce qui est déjà le cas, mais je ne crois pas qu’on ait une explosion rapide et qui changerait le paradigme de l’IA. Je crois qu' il peut y avoir une explosion environnementale. Je crois que l’on en est tellement tapé dans les dernières limites. De nos ressources que là, pour le coup, effectivement, ça peut s’arrêter à cause de ça ou parce que les gens, à un moment donné, vont se dire en fait, on a choisi entre générer des chats mignons ou des voitures volantes en tapant un prompt ou avoir de l’eau potable au robinet. C’est de l’eau potable du robinet qu’on veut.
David Dufresne
Florent Calvez, que je salue, te demande, outre l’assistance et le souhait de faire, faire moyennement, comme tu disais tout à l’heure, ce qu’on ne sait pas tout à fait faire ou ce qu’on ne veut plus faire, n’y a-t-il pas un truc sous-jacent de satisfaction malsaine de simplement de domination de type maître-esclave ?
Ertzscheid Olivier
Oui, très bonne remarque et bonne intervention.
David Dufresne
Ah non, on n’est pas chez les cons, tu le sais,ici, il n’y a pas d’IA.
Ertzscheid Olivier
Oui, oui, bien sûr, on a un rapport qui est fondamentalement ambigu à cette technologie et a fortiori quand on a tendance à les humaniser ou qu’elle nous propose de les humaniser. Je pense qu’on partage tous un certain nombre de souvenirs avec l’arrivée des premières interfaces vocales, et les autres, où on leur a posé des questions un petit peu débiles, où on les a mises dans des situations qui étaient des situations un petit peu qui pouvaient relever d’une forme de perversion et aujourd’hui oui dans ces technologies enfin on voyait malheureusement avec l’exemple là que tu évoquais tout à l’heure sur la manière dont on entraîne ces outils d’IA à réagir à des situations qui sont des situations perverses avec l’exemple de la petite fille ou d’autres mais oui oui on a tendance effectivement à s’installer dans une fausse position de domination c’est à dire on a l’impression qu’une une forme de prise de contrôle par rapport à ces outils conversationnels, c’est de leur montrer ce qu’ils patronnent, en fait, derrière, quand on réfléchit deux minutes, et une fois qu’on a passé cette étape-là, on s’aperçoit que ce n’est surtout pas nous le patron ou la patronne. Mais il y a vraiment ça. Il y a beaucoup de gens qui travaillent dans le domaine de la robotique, qui analysent, puisque là, a fortiori, ce sont des intelligences artificielles qui ont un corps robotique humanise, effectivement paradoxalement, ces outils robotiques sont beaucoup utilisés dans le domaine du soin et de l’entraide, mais à l’inverse, il y a tout un tas de dérives aussi importantes qui visent à les avilir, à les dégrader et à avoir avec eux des interactions qui sont du registre de la perversion.
David Dufresne
Il y a ZuXiao qui nous donne des chiffres, 30 000 postes supprimés chez Amazon, 11 000 chez Accenture, 12 000 chez Data Consultancy Service, je ne connais pas ces gens-là, 9 000 chez Microsoft sous prétexte de l’utilisation de l’IA. Il y a beaucoup de questions, notamment Voxmachina, sur qu’est-ce qu’on peut faire, que faire, chers camarades, que faire ? Voxmachina te demande que devraient être les actions des services publics face à la généralisation de l’usage des outils IA.
Ertzscheid Olivier
Déjà, expliquer aux gens comment ça marche parce que contrairement à ce qu’on croit ou à ce qu' on imagine, il y a beaucoup de gens qui sont confrontés à ces technologies et qui n’ont pas suffisamment de clés de compréhension pour comprendre les ressources qu’il y a derrière. Il ne s’agit pas de faire un cours à des ingénieurs, il s’agit de mettre à plat les différents enjeux, les enjeu écologiques, on en a parlé, les enjeux de travail dissimulés. Il faut former les gens et puis encore une fois, je crois qu’un outil n’est pas dangereux dès lors que tu comprends comment il fonctionne et dès lors que c’est toi qui continue de décider ce que l’outil est en capacité de t’apporter, surtout quand est-ce que tu vas avoir le droit d’utiliser l’outil ou quand est-ce que tu peux avoir recours à l’outil. Dans les services publics, ce qui est assez flippant, c’est de voir que chaque fois que ces questions se posent, parce qu’il y a des gens qui se disent, formez-nous, nous on ne demande que ça, si ça peut nous faire gagner du temps parce qu’on n’a pas toujours des boulots non plus hyper épanouissants ou qui sont bourrés de tâches répétitives, mais dès lors que ces outils arrivent, ça devient des outils, il n’y a plus d’alternative. C’est-à-dire, OK, on a pris le temps, on vous a formé, donc maintenant, vous utilisez cet outil, quoiqu’il arrive. Et non, ces outils-là, ils sont là pour être utilisés uniquement lorsqu’on en a le besoin, l’envie, le désir éventuellement ou lorsque ça se justifie par rapport à une situation professionnelle donnée. Sinon, on supprime des postes puis en supprimant des poste, là aussi, je parlais des faits de balancier, on commence à s’apercevoir que certes, ça permet de dégager des gens pour faire des économies, mais derrière, ça fait aussi surtout beaucoup de bêtises parce que ces outils-là, ils sont tout sauf parfaitement fiables s’il n’y a pas de supervision.
David Dufresne
Alors, je vais te poser la dernière question parce que tu as, et ils ont de la chance, un cours, ils, tes étudiants, tes étudiantes, un cour à donner,moi, j’ai des petits trucs à faire aussi. Je vais donner cette question. Je voudrais aussi quand même donner le lien vers un article chez tes copains d’AOC, le réel, le vrai et la techno, ou comment la question du langage s’est déplacée. C’est paru le 20 octobre, c’est absolument passionnant. Alors là, on est à un cran philosophique, mais en gros, si on veut résumer, tu nous dis qu’en fait, c' est du réel en moins qu’on est en train de créer, et non pas du réal en plus, de la réalité augmentée et autres. Voilà, donc je signale cet article chez AOC, chez les copains d’AOC, Sylvain Bourmeau. Et là, une dernière question qu’il me plaît beaucoup de te poser, d’autant que si tu te déplaces un tout petit peu sur ta gauche, peut-tu te déplacer un tout peu ? Voilà, ça suffit, c’est parfait. Common Source a remarqué, petit clin d'œil, un détail sur l’arrière-plan, la carte de “qui possède quoi dans les médias” du monde diplomatique. Quel lien fait Olivier entre cette carte et son sujet ?
Ertzscheid Olivier
Eh bien, merci pour cette remarque et cette acuité visuelle. Le lien est évident, il est dans la question. Il y a effectivement aujourd’hui, une des premières questions, il y a la question du langage, tu t'évoquais le papier d’AOC. Pour moi, ce qui est clé dans toutes ces technologies, c’est vraiment la question des espaces de langage que ça autorise, que ça inhibe, que sa libère. Donc ça, c’est le papier de AOC et le lien, l’autre question essentielle, c’est qui possède ces médias ? Parce que moi, on a un certain nombre à parler de médias sociaux plus que de réseaux sociaux et derrière ces médias sociaux, on retrouve le même type de fonctionnement oligarchique. C’est-à-dire très peu de gens extrêmement puissants qui possèdent la quasi totalité des ressources d’expression en ligne, hors ligne, surtout type de supports, et des gens qui, dans leur immense majorité, ne sont pas réellement, sincèrement, authentiquement des progressistes. Et puis qui ont un agenda idéologique qui est effectivement assez mortifère à mon sens. Donc oui, oui, on n’en serait pas là si la psychologie d’Elon Musk ou de Mark Zuckerberg était différente et surtout on n’en serait pas là si on avait des outils démocratiques pour faire en sorte que la diversité et la pluralité des médias soient inscrits dans le cadre de la loi, ça c’est déjà le cas, mais qu’elles soient respectées en droit.
David Dufresne
Merci beaucoup Olivier, c'était comme prévu, absolument passionnant, évidemment beaucoup trop court, mais on a du bol. C’est que tu as un usage de l’Internet, parfois à l’ancienne, une adresse, une personne, un lien. C’est ton blog que je conseille absolument à tout le monde. Tu veux dire un dernier petit mot ?
Ertzscheid Olivier
Eh bien te remercier déjà pour l’invitation, c’est toujours un plaisir. Puis pour tout ce que je parlais des espaces de parole qui sont vitaux dans nos démocraties numériques ou non. Et tout ton boulot, et notamment sur Au poste, en est un des points et un des espace les plus féconds. Et puis après, il y a dans le papier, je cite Fred Turner qui dit : "Il faut qu’on arrive à construire des réseaux de solidarité dans les gouvernements, dans la société civile, dans les mondes numériques parce que comme ça, si l’autoritarisme arrive et frappe à notre porte, on aura une autre histoire à proposer". Je crois qu’il faut qu on essaye de tous travailler ensemble pour proposer cette autre histoire parce que l’autoritarisme, il arrive et on commence à entendre taper à nos portes déjà.
David Dufresne
Merci infiniment, Olivier, à très bientôt et on t’embrasse. Merci beaucoup voilà,les amis. C'était un petit cours express avec Olivier, j’espère que ça vous a plu, petite émission improvisée, impromptue. Donc, ça fait du bien, je vous remercie tous et toutes d'être d’être venus.

Au Poste est mis à la disposition de toutes et tous selon les termes de la licence Creative Commons Attribution : Pas d’Utilisation commerciale - Partage dans les mêmes Conditions.