Les 3 stades de l’IA

Les trois stades de l’intelligence artificielle : dans lequel nous nous trouvons et pourquoi beaucoup pensent que le troisième pourrait être fatal ?

Depuis son lancement fin novembre 2022, ChatGPT, le chatbot qui utilise l’intelligence artificielle (IA) pour répondre à des questions ou générer des textes à la demande, est devenu l’application internet à la croissance la plus rapide de l’histoire.

En deux mois seulement, elle a atteint les 100 millions d’utilisateurs actifs. Il a fallu neuf mois à l’application populaire TikTok pour franchir cette étape. Quant à Instagram, il lui a fallu deux ans et demi, selon les données de la société de veille technologique Sensor Town.

“Depuis 20 ans que nous suivons l’évolution de l’internet, nous ne nous souvenons pas d’une progression aussi rapide d’une application internet grand public”, ont déclaré les analystes d’UBS, qui ont fait état de ce record en février.

La popularité massive de ChatGPT, développé par OpenAI, soutenu par Microsoft, a suscité toutes sortes de discussions et de spéculations sur l’impact que l’intelligence artificielle générative a déjà et aura dans notre avenir proche.

Il s’agit de la branche de l’IA consacrée à la génération de contenu original à partir de données existantes (généralement tirées de l’internet) en réponse aux instructions d’un utilisateur.

Les textes (depuis les essais, la poésie et les blagues jusqu’au code informatique) et les images (diagrammes, photos, œuvres d’art de tout style et autres) produits par des IA génératives telles que ChatGPT, DALL-E, Bard et AlphaCode – pour ne citer que quelques-unes des plus connues – sont, dans certains cas, tellement impossibles à distinguer du travail humain qu’ils ont déjà été utilisés par des milliers de personnes pour remplacer leur travail habituel.

Des étudiants qui les utilisent pour faire leurs devoirs aux politiciens qui les utilisent pour leurs discours – le représentant démocrate Jake Auchincloss a présenté la ressource au Congrès américain – en passant par les photographes qui inventent des instantanés de choses qui ne se sont pas produites (et gagnent même des prix pour cela, comme l’Allemand Boris Eldagsen, qui a remporté la première place au dernier Sony World Photography Award pour une image créée par l’intelligence artificielle).

Cette note aurait pu être écrite par une machine et vous ne l’auriez probablement pas remarqué.

Ce phénomène a entraîné une révolution dans le domaine des ressources humaines, des entreprises telles que le géant de la technologie IBM ayant annoncé qu’elles cesseraient d’embaucher des personnes pour pourvoir quelque 8 000 postes qui pourraient être confiés à l’IA.

Un rapport de la banque d’investissement Goldman Sachs a estimé fin mars que l’IA pourrait remplacer un quart des emplois occupés aujourd’hui par des humains, mais qu’elle créera aussi plus de productivité et de nouveaux emplois.

Si tous ces changements vous dépassent, préparez-vous à un fait encore plus déconcertant.

Malgré tous ses impacts, ce que nous vivons actuellement n’est que la première étape du développement de l’IA.

Selon les experts, ce qui pourrait arriver bientôt – la deuxième étape – sera bien plus révolutionnaire.

Et la troisième et dernière, qui pourrait survenir très bientôt, est si avancée qu’elle changera complètement le monde, même au prix de l’existence humaine.

Les trois étapes

Les technologies de l’IA sont classées en fonction de leur capacité à imiter les caractéristiques humaines.

1. l’intelligence artificielle étroite (ANI)

La catégorie la plus élémentaire de l’IA est mieux connue sous son acronyme : ANI, pour Artificial Narrow Intelligence (intelligence artificielle étroite).

Elle est ainsi appelée parce qu’elle se concentre sur une seule tâche, effectuant un travail répétitif dans un domaine prédéfini par ses créateurs.

Les systèmes ANI sont généralement formés à l’aide d’un vaste ensemble de données (provenant par exemple de l’internet) et peuvent prendre des décisions ou effectuer des actions sur la base de cette formation.

Un ANI peut égaler ou surpasser l’intelligence et l’efficacité humaines, mais uniquement dans le domaine spécifique dans lequel il opère.

Les programmes d’échecs qui utilisent l’IA en sont un exemple. Ils sont capables de battre le champion du monde dans cette discipline, mais ne peuvent pas effectuer d’autres tâches.

C’est pourquoi on l’appelle aussi “IA faible”.

Tous les programmes et outils qui utilisent l’IA aujourd’hui, même les plus avancés et les plus complexes, sont des formes d’ANI. Et ces systèmes sont partout.

Les smartphones sont remplis d’applications qui utilisent cette technologie, des cartes GPS qui vous permettent de trouver votre chemin dans le monde ou de connaître la météo, aux programmes de musique et de vidéo qui connaissent vos goûts et vous font des recommandations.

Les assistants virtuels tels que Siri et Alexa sont également des formes d’ANI. Tout comme le moteur de recherche de Google et le robot qui nettoie votre maison.

Le monde des affaires utilise également beaucoup cette technologie. Elle est utilisée dans les ordinateurs internes des voitures, dans la fabrication de milliers de produits, dans le monde financier et même dans les hôpitaux, pour les diagnostics.

Des systèmes encore plus sophistiqués, tels que les voitures sans conducteur (ou véhicules autonomes) et le populaire ChatGPT, sont des formes d’ANI, car ils ne peuvent pas fonctionner en dehors de la plage prédéfinie par leurs programmeurs, et ne peuvent donc pas prendre de décisions par eux-mêmes.

Ils n’ont pas non plus de conscience de soi, une autre caractéristique de l’intelligence humaine.

Toutefois, certains experts estiment que les systèmes programmés pour apprendre automatiquement (apprentissage automatique), tels que ChatGPT ou AutoGPT (un “agent autonome” ou “agent intelligent” qui utilise les informations de ChatGPT pour effectuer certaines tâches secondaires de manière autonome), pourraient passer à l’étape suivante du développement.

2. l’intelligence générale artificielle (AGI)

Cette catégorie – l’intelligence générale artificielle – est atteinte lorsqu’une machine acquiert des capacités cognitives de niveau humain.

C’est-à-dire qu’elle peut accomplir n’importe quelle tâche intellectuelle qu’une personne peut accomplir.

Elle est également connue sous le nom d'”IA forte”.

La conviction que nous sommes sur le point d’atteindre ce niveau de développement est telle qu’en mars dernier, plus de 1 000 experts en technologie ont appelé les entreprises d’IA à cesser de former, pendant au moins six mois, des programmes plus puissants que GPT-4, la dernière version de ChatGPT.

“Les systèmes d’IA dotés d’une intelligence rivalisant avec celle de l’homme peuvent présenter des risques profonds pour la société et l’humanité”, ont averti Steve Wozniak, cofondateur d’Apple, et Elon Musk, propriétaire de Tesla, SpaceX, Neuralink et Twitter (qui était cofondateur d’Open AI avant de démissionner du conseil d’administration en raison de désaccords avec la direction de l’entreprise), entre autres, dans une lettre ouverte.

Dans cette lettre, publiée par l’organisation à but non lucratif Future of Life Institute, les experts déclarent que si les entreprises n’acceptent pas rapidement de limiter leurs projets, “les gouvernements devraient intervenir et instituer un moratoire” afin que des mesures de sécurité solides puissent être conçues et mises en œuvre.

Bien que cela ne se soit pas produit pour le moment, le gouvernement américain a convoqué les propriétaires des principales entreprises d’IA – Alphabet, Anthropic, Microsoft et OpenAI – pour convenir de “nouvelles actions visant à promouvoir une innovation responsable dans le domaine de l’IA”.

“L’IA est l’une des technologies les plus puissantes de notre époque, mais pour saisir les opportunités qu’elle offre, nous devons d’abord atténuer ses risques”, a déclaré la Maison Blanche dans un communiqué le 4 mai.

Le Congrès américain a quant à lui convoqué le PDG d’OpenAI, Sam Altman, pour qu’il réponde à des questions sur le ChatGPT mardi.

Lors de l’audition au Sénat, M. Altman a déclaré qu’il était “crucial” que son secteur soit réglementé par le gouvernement, car l’IA devient “de plus en plus puissante”.

Carlos Ignacio Gutiérrez, chercheur en politique publique au Future of Life Institute, a déclaré à BBC Mundo que l’un des grands défis de l’IA est qu'”il n’existe pas d’organe collégial d’experts décidant de la manière de la réglementer, comme c’est le cas, par exemple, avec le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC)”.

Dans leur lettre, les experts exposent leurs principales préoccupations.

“Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux que nous, nous déjouer, nous rendre obsolètes et nous remplacer ?

“Devons-nous risquer de perdre le contrôle de notre civilisation ?

Cela nous amène à la troisième et dernière étape de l’IA.

3) Super Intelligence Artificielle (ASI)

L’inquiétude de ces informaticiens est liée à une théorie bien établie selon laquelle, lorsque nous atteindrons l’AGI, nous atteindrons bientôt l’étape finale du développement de cette technologie : la superintelligence artificielle, qui se produit lorsque l’intelligence synthétique surpasse l’intelligence humaine.

Nick Bostrom, philosophe de l’Université d’Oxford et expert en IA, définit la superintelligence comme “un intellect bien plus intelligent que les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales”.

La théorie veut que lorsqu’une machine atteint une intelligence équivalente à celle de l’homme, sa capacité à multiplier cette intelligence de manière exponentielle grâce à son propre apprentissage autonome la conduira bientôt à nous surpasser de loin, jusqu’à atteindre l’ASI.

“Les humains doivent étudier très longtemps pour devenir ingénieurs, infirmières ou avocats. L’avantage de l’AGI est qu’elle est immédiatement extensible”, explique M. Gutiérrez.

Cela est dû à un processus appelé auto-amélioration récursive qui permet à une application d’IA de “s’améliorer continuellement, dans un délai que nous ne pourrions pas respecter”.

Bien que la question de savoir si une machine peut réellement acquérir le type d’intelligence générale d’un être humain – en particulier en termes d’intelligence émotionnelle – suscite de nombreux débats, c’est l’une des choses qui inquiètent le plus ceux qui pensent que nous sommes sur le point d’atteindre l’AGI.

Récemment, celui que l’on appelle le “parrain de l’intelligence artificielle”, Geoffrey Hinton, pionnier de la recherche sur les réseaux neuronaux et l’apprentissage profond qui permettent aux machines d’apprendre par l’expérience, tout comme les humains, a averti dans une interview accordée à la BBC que nous pourrions être proches de cette étape.

“Pour l’instant, les machines ne sont pas plus intelligentes que nous, d’après ce que je vois. Mais je pense qu’elles pourraient l’être bientôt”, a déclaré cet homme de 75 ans, qui vient de prendre sa retraite de Google.

Extinction ou immortalité

Il existe, en gros, deux camps de pensée concernant l’ASI : ceux qui pensent que cette superintelligence sera bénéfique pour l’humanité et ceux qui pensent le contraire.

Parmi ces derniers, le célèbre physicien britannique Stephen Hawking estime que les machines superintelligentes constituent une menace pour notre existence.

“Le développement d’une intelligence artificielle complète pourrait signifier la fin de la race humaine”, a-t-il déclaré à la BBC en 2014, quatre ans avant sa mort.

Une machine dotée d’un tel niveau d’intelligence “décollerait d’elle-même et se redessinerait à un rythme de plus en plus rapide”, a-t-il ajouté.

“Les humains, qui sont limités par une évolution biologique lente, ne seraient pas en mesure de rivaliser et seraient dépassés”, a-t-il prédit.

D’un autre côté, c’est l’inverse qui est vrai.

L’un des plus grands adeptes de l’ASI est l’inventeur et futurologue américain Ray Kurzweil, chercheur en IA chez Google et cofondateur de la Singularity University dans la Sillicon Valley (“singularité” est une autre façon d’appeler l’ère où les machines deviendront superintelligentes).

Kurzweil pense que les humains seront capables d’utiliser une IA super-intelligente pour surmonter nos barrières biologiques, améliorant ainsi nos vies et notre monde.

En 2015, il a même prédit que d’ici 2030, les humains atteindront l’immortalité grâce à des nanobots (robots minuscules) qui agiront à l’intérieur de notre corps, réparant et guérissant tout dommage ou maladie, y compris ceux causés par le passage du temps.

Dans son témoignage devant le Congrès mardi, Sam Altman, de l’OpenAI, s’est également montré optimiste quant au potentiel de l’IA, notant qu’elle pourrait résoudre “les plus grands défis de l’humanité, tels que le changement climatique et la guérison du cancer”.

Au milieu se trouvent des personnes qui, comme M. Hinton, pensent que l’IA a un potentiel énorme pour l’humanité, mais considèrent que le rythme actuel de développement, sans réglementation ni limites claires, est “inquiétant”.

Dans une déclaration envoyée au New York Times annonçant son départ de Google, M. Hinton a déclaré qu’il regrettait désormais le travail qu’il avait accompli parce qu’il craignait que de “mauvais acteurs” n’utilisent l’IA pour faire de “mauvaises choses”.

Interrogé par la BBC, il a donné cet exemple de “scénario cauchemardesque” :

“Imaginez, par exemple, qu’un mauvais acteur comme [le président russe Vladimir] Poutine décide de donner aux robots la capacité de créer leurs propres sous-objectifs.

Les machines pourraient éventuellement “créer des sous-objectifs tels que : ‘Je dois obtenir plus de pouvoir'”, ce qui représenterait un “risque existentiel”, a-t-il déclaré.

Dans le même temps, l’expert britanno-canadien a déclaré qu’à court terme, l’IA apportera bien plus d’avantages que de risques, et que “nous ne devrions donc pas cesser de la développer”.

“La question est la suivante : maintenant que nous avons découvert qu’elle fonctionne mieux que ce que nous avions prévu il y a quelques années, que faisons-nous pour atténuer les risques à long terme de voir des choses plus intelligentes que nous prendre le dessus ?

M. Guitérrez convient qu’il est essentiel de créer un système de gouvernance de l’IA avant de développer une intelligence capable de prendre des décisions par elle-même.

“Si vous créez ces entités qui ont leur propre motivation, qu’est-ce que cela signifie lorsque nous ne contrôlons plus ces motivations ?

Selon lui, le danger n’est pas seulement qu’une AGI ou une ASI, qu’elle soit auto-motivée ou contrôlée par des personnes ayant de “mauvais objectifs”, déclenche une guerre ou manipule le système financier, la production, l’infrastructure énergétique, les transports ou tout autre système aujourd’hui informatisé.

Une superintelligence pourrait nous dominer de manière beaucoup plus subtile, prévient-il.

“Imaginez un avenir où une entité possède tellement d’informations sur chaque personne de la planète et sur ses habitudes (grâce à nos recherches sur l’internet) qu’elle pourrait nous contrôler d’une manière dont nous ne nous rendrions même pas compte”, déclare-t-il.

“Le pire scénario n’est pas qu’il y ait des guerres entre les humains et les robots. Le pire scénario est que nous ne nous rendions pas compte que nous sommes manipulés parce que nous partageons la planète avec une entité beaucoup plus intelligente que nous”.