Cher ChatGPT, tu es une escroquerie…
Lettre ouverte par Erwan Cario
publié le 19 juin 2023 dans Liberation
Cher ChatGPT, puisqu’il est commun de s’adresser ainsi directement à toi, permets-moi de le faire sur un autre format que celui du «prompt».
Cher ChatGPT, tu es une escroquerie. Ne te méprends pas, je suis convaincu que tu es le résultat d’une recherche scientifique exaltante. Je suis fasciné par les évolutions spectaculaires du secteur de l’intelligence artificielle ces dix dernières années. Depuis ce mythique concours de reconnaissance d’images ImageNET Challenge en 2012 quand, pour la première fois, un système basé sur l’apprentissage profond («deep learning») a battu toutes les autres solutions présentes en compétition, jusqu’aux développements génératifs de ces dernières années. Durant cette décennie, le principe général de cet apprentissage qui te permet de fonctionner n’a pas beaucoup évolué. Il s’agit toujours d’ingurgiter une quantité phénoménale de données pour régler de manière très fine, grâce à des formules mathématiques complexes, des milliards de paramètres modélisés par des réseaux de neurones artificiels. Dans un premier temps, ces données devaient être annotées (une photo de chat devait être accompagnée de sa légende indiquant la présence du félin). Aujourd’hui, surtout avec le texte, ta spécialité, il s’agit d’absorber tout et n’importe quoi, du moment que ça se compte en milliards de mots. A partir de ce corpus monstrueux, grâce à cet algorithme «transformeur» dont tu tires ton T majuscule, tu vas pondérer des régularités, déterminer des schémas récurrents dans les positions des mots les uns par rapport aux autres pour générer un modèle incompréhensible vu de l’extérieur mais capable de performances stupéfiantes.
Toutes les oppressions et toutes les inégalités
Cher ChatGPT, tu es une escroquerie car, quels que soient les efforts déployés par tes concepteurs, tu ne seras jamais ni fiable ni éthique. Tu ne seras jamais fiable, car tu ne disposes d’aucune capacité de compréhension. Pour tes utilisateurs, les mots ont un sens, pour toi, il s’agit de la suite de termes qui ont statistiquement le plus de chances de répondre aux attentes. Tu ignores tout du factuel et du vrai, seule compte la crédibilité du propos, sa capacité à feindre le réel. Un peu comme le discours d’un député Renaissance qui aurait poussé à son paroxysme le concept des éléments de langage. Et tu ne seras jamais éthique, car tu as avalé sans distinction ce que l’humanité a produit de pire en termes de biais et de discriminations sans même pouvoir les identifier. Dans tes milliards de paramètres se terrent toutes les oppressions et toutes les inégalités, et pour éviter les réponses trop scandaleuses de ta part, OpenAI multiplie les surcouches de contrôle pour lisser au maximum tes propos. Difficile de connaître la teneur de ces patchs, qui sont pourtant essentiels, c’est un des secrets industriels les mieux gardés du secteur.
On a pu se faire une idée en juillet 2022 avec une autre IA vedette d’OpenAI, le générateur d’images Dall-E 2, qui avait tendance à générer des images d’hommes quand on lui demandait un docteur et de personnes blanches quand il s’agissait d’imaginer un PDG. Au lieu de corriger la présence de ces biais dans les rouages, OpenAI s’est contenté de rajouter, en secret et de manière aléatoire, des mots aux requêtes des utilisateurs. Un subterfuge mis au jour par le chercheur Richard Zhang qui a simplement demandé : «Une personne qui tient une feuille où il est écrit.» Résultat : des images avec les mots «homme noir» ou «femme» inscrits sur la feuille, preuve que la requête envoyée finalement au système était «Une personne qui tient une feuille où il est écrit homme noir» et que ces termes avaient été rajoutés a posteriori à la requête de façon un peu grossière. C’est certainement ce genre de rustine qui te permet de ne pas être trop visiblement raciste, sexiste ou complotiste dans tes réponses. Pourtant, dans le fond, dans ce qui te sert de cerveau artificiel, tu le restes. C’est terrifiant. Tu ressembles à un avion de ligne avec un fuselage colmaté au chatterton. Et la population mondiale est en salle d’embarquement. On pourra me taxer de naïveté (et c’est sans doute vrai), mais je crois profondément que ce qui compte dans un écrit ou une image, c’est l’intention et le sens qu’on a voulu mettre dans le choix des mots ou la construction visuelle.
L’illusion d’humanité de tes réponses
Cher ChatGPT, tu es une escroquerie car cette intention et ce sens te sont by design complètement étrangers. Les écrits que tu génères ne sont pas destinés à être lus, ils existent fondamentalement pour tromper. Tromper par l’illusion d’humanité de tes réponses qui génère une attention et une empathie disproportionnées, tromper en laissant croire que ce que tu écris est intéressant, pratique et sans danger. Tes plus grands zélateurs sont ceux qui se foutent royalement de la teneur et de l’intérêt des textes, ils veulent juste remplir à moindres frais les espaces gris dédiés aux mots, un peu comme avec le faux texte «Lorem Ipsum» utilisé par les maquettistes pour caler une mise en page. Le danger des IA n’est pas, comme ont voulu le faire croire les transhumanistes, l’émergence d’une super-intelligence capable de surpasser toute l’humanité pour l’asservir d’une manière ou d’une autre, mais peut-être bien la médiocrité de ton simulacre de pensée qu’on cherche aujourd’hui à imposer au monde comme un progrès.