L’IA générale est déjà là

Selon deux chercheurs de chez Google, les grands modèles d’IA d’aujourd’hui seront à l’avenir reconnus comme les premiers vrais exemples d’intelligence artificielle générale. Mais pourquoi ce déni dans l’opinion ?

Publié le 27 octobre 2023, par dans « transhumanisme »

Dans leur récent article Artificial General Intelligence is Already Here, les chercheurs en informatique Blaise Agüera y Arcas et Peter Norvig (Google) défendent la thèse selon laquelle l’intelligence artificielle générale (IAG) existe déjà.

Selon eux, l’ENIAC (1945) n’a pas été reconnu immédiatement comme le premier ordinateur électronique à usage général ; de la même manière, nous avons collectivement du mal à nous rendre compte que la propriété-clé que nous cherchions dans l’IAG, la généralisation, est déjà présente dans les “modèles-frontières” qui structurent LLaMA, ChatGPT ou Claude.

Parmi les capacités remarquables de ces modèles de langage, les auteurs distinguent notamment celle de l’apprentissage en contexte (apprendre à partir d’une invite plutôt qu’à partir des données d’apprentissage ; par exemple, «Écrivez un poème sur les chats dans le style d’Hemingway»). 

Mais alors, quelles sont les raisons poussant de nombreux chercheurs à refuser de parler d’IAG ? Les auteurs en identifient quatre : 

  • un sain scepticisme à l’égard de la mesure de l’IAG ;
  • un engagement idéologique à l’égard de théories ou de techniques alternatives en matière d’IA ;
  • une sorte de chauvinisme humain (ou biologique) ;
  • une inquiétude quant aux implications économiques de l’IAG.

L’un des points importants soulignés par Agüera y Arcas et Norvig est que les bancs d’essai utilisés en IA donnent l’impression de l’existence de “seuils” ou d’émergence, alors que les performances réelles des grands modèles progressent avec la taille de ces modèles, souvent “sous les seuils” :

“Les chercheurs Rylan Schaeffer, Brando Miranda et Sanmi Koyejo ont souligné un autre problème avec les mesures de performance courantes de l’IA : elles sont non linéaires. Prenons l’exemple d’un test consistant en une série de problèmes arithmétiques avec des nombres à cinq chiffres. Les petits modèles répondront mal à tous ces problèmes, mais à mesure que la taille du modèle est augmentée, il y aura un seuil critique au-delà duquel le modèle résoudra la plupart des problèmes. Cela a conduit les commentateurs à dire que la compétence arithmétique est une propriété émergente dans les modèles frontières de taille suffisante. Mais si, au lieu de cela, le test incluait également des problèmes arithmétiques avec des nombres de un à quatre chiffres, et si un crédit partiel était accordé pour l’obtention de certains chiffres corrects, alors nous verrions que les performances augmentent progressivement à mesure que la taille du modèle augmente ; Il n’y a pas de seuil précis.”

Cette découverte met également en doute la thèse de capacités uniquement humaines qui auraient “émergé” et qui ne se trouveraient pas, d’une manière ou d’une autre, chez nos proches cousins primates.

(Image générée par Bing en réponse à la question formulée en français : “peux-tu dessiner un cartoon sur une IA qui se sent déshumanisée ?”

Intelligence et conscience de soi

Les auteurs de l’article insistent ensuite sur le fait qu’intelligence générale et conscience ou sentience doivent être séparées, dans un premier temps :

“Il est vrai qu’il y a quelque chose de spécial dans l’humanité, et nous devrions le célébrer, mais nous ne devrions pas le confondre avec l’intelligence générale.”

Ils invitent avant tout à rester prudents : “Nous n’avons aucune idée de la façon de mesurer, vérifier ou falsifier la présence de conscience dans un système intelligent. Nous pourrions simplement lui poser la question, mais nous pouvons croire ou non sa réponse. (…) S’appuyant sur des croyances invérifiables (…), le débat sur la conscience ou la sentience n’est actuellement pas soluble. Certains chercheurs ont proposé des mesures de la conscience, mais celles-ci sont soit basées sur des théories infalsifiables, soit s’appuient sur des corrélats spécifiques à notre propre cerveau, et sont donc soit prescriptives, soit incapables d’évaluer la conscience dans un système qui ne partage pas notre héritage biologique. (…) L’idée que ressentir de la douleur (par exemple) nécessite des nocicepteurs peut nous permettre de hasarder des suppositions éclairées sur l’expérience de la douleur chez nos proches parents biologiques, mais il n’est pas clair comment une telle idée pourrait être appliquée à d’autres architectures neuronales ou types d’intelligence.”

(les auteurs parlent ici de l’aspect phénoménal de la conscience).

Contexte économique et politique

Les auteurs avancent l’idée que la période que nous traversons, notamment dans les pays du “Nord global”, industrialisés depuis longtemps mais faisant face à un retour des inégalités économiques, n’est pas propice à une bonne réception de l’arrivée de l’IAG par le public. Si l’IAG était apparue lors des Trente Glorieuses, où “la plupart des Américains étaient optimistes quant aux progrès technologiques”, la menace n’aurait pas été assez forte pour se transformer en défiance, voire en déni.

Plutôt que de refuser de voir l’IAG, les auteurs invitent le grand public à se poser les bonnes questions : à qui profite l’IA, qui est lésé ? Comment pouvons-nous maximiser les avantages et minimiser les préjudices ? Comment pouvons-nous le faire de manière juste et équitable ?

Porte-parole de l'AFT