« L’humanité est à l’aube d’une transformation profonde et durable »

Un entretien avec Aïda Elamrani (ASTOUND) sur le thème de l'IA, de la conscience et de la moralité des algorithmes.

Publié le 18 juin 2023, par dans « Intelligence artificielle »

Aïda Elamrani est chercheuse à l’Institut Jean-Nicod (ENS-PSL, CNRS, EHESS) et coordonne l’initiative « IA et Société » avec Thierry Poibeau. Son travail porte sur l’éthique et la philosophie de l’intelligence artificielle, avec une focale sur la relation entre esprit et matière. Elle fait également partie du projet ASTOUND, une tentative toute récente de lier conscience et algorithmes sur la base de la théorie du schéma d’attention de Michael Graziano.

E.G.Pouvez-vous nous retracer rapidement votre parcours, et ce qui vous a amenée à vous intéresser à la cognition des machines ?

A.E. – J’ai toujours été passionnée d’IA. Enfant, lorsque je développais mes premiers programmes, s’est naturellement posée la question de savoir si mon ordinateur pourrait véritablement me comprendre un jour. Après des études en informatique fondamentale, c’est vers la question de la conscience que je me suis tournée. Si l’imitation de l’intelligence paraît facile, la conscience quant à elle constitue l’aspect le plus avancé et le plus problématique de notre mentalité. J’ai donc entamé des recherches à l’intersection de l’informatique et de la philosophie. Ces thèmes m’ont également amenée à me spécialiser dans l’impact éthique de ces nouvelles technologies.

Les grands modèles de langage (LLM) dont on parle beaucoup depuis l’année dernière semblent pouvoir modéliser finement des situations et interactions sociales complexes, et généraliser à partir d’exemples. Comprennent-ils réellement ce qu’ils écrivent ? « Voient »-ils la situation qu’ils décrivent ? Comment mieux définir le verbe « comprendre » à la lumière de leurs performances ?

C’est une excellente question. A ce sujet, John Searle, éminent philosophe américain, a publié un article devenu incontournable dans les années 80 dans lequel il introduit d’ailleurs la distinction entre IA forte et IA faible. Dans ce papier, John Searle argumente que les IA ne seront jamais capables de compréhension naturelle. Pour étayer sa thèse, il propose l’expérience de pensée connue sous le nom de « la chambre chinoise ». Imaginons que je sois isolée dans une pièce. Un interlocuteur chinois en dehors de cette pièce me transmet un message écrit dans sa langue natale, par une fente. Je reçois ce message, or, je ne parle pas un traitre mot de chinois et suis parfaitement incapable de reconnaître le moindre symbole. Cependant, face à moi, dans la pièce, se situe un gigantesque manuel. En suivant à la lettre les instructions qui s’y trouvent (écrites en français), je produis une séquence de symboles chinois sur une feuille de papier, que j’adresse à mon interlocuteur chinois par une autre fente. La réponse que je fournis ainsi à sa question fait parfaitement sens : mon interlocuteur la comprend et la trouve tout à fait pertinente. Cependant, pour ma part, je n’ai jamais rien compris des messages qui ont été échangés. Ce que Searle veut ainsi démontrer, c’est que les programmes d’IA sont exactement comme moi dans la pièce : ils suivent machinalement des séries d’instructions qui leur permettent d’assembler des séquences savantes de symboles, pourtant ils n’ont jamais accès à la véritable signification des symboles qu’ils manipulent. Selon lui, l’IA est condamnée à être faible car elle est dépourvue d’intentionnalité : elle ne sait pas relier les symboles à leur véritable signification.

Cependant son argument semble vaciller aujourd’hui au regard des nouvelles techniques en IA. Les LLM ne se contentent pas de bêtement suivre des séries d’instructions. Ces systèmes apprennent de véritables relations entre les symboles fondamentaux du langage. Ceci nous amène effectivement à reconsidérer notre définition de la compréhension et de l’intentionnalité. Principalement, il devient nécessaire de les évaluer en tenant compte du rôle de la conscience. Le projet ASTOUND va nous permettre d’apporter des pistes de solutions à ces problèmes.

Curieusement, les chatbots liés à des LLM semblent « mieux réfléchir » quand on leur impose un cadre discursif composé d’étapes. De la même manière, les robots capables de verbaliser une sorte de monologue intérieur voient leur motricité s’améliorer. Comment expliquer cela ? Cela a-t-il un rapport avec la mémoire à court terme, essentielle au raisonnement logique ?

Ces larges modèles de langage sont entraînés sur de vastes quantités de textes produits par des humains. Ces gigantesques bases de données regroupent des textes issus de sources très variées, que ce soit Wikipédia, Twitter, articles de presse, livres. Ces algorithmes sont donc entraînés sur des textes issus de contextes variés, produits dans tout type de registre de langage. Ils effectuent un apprentissage statistique à partir de ces vastes ensembles de données, en calculant de vastes réseaux de relations entre les mots. La pertinence de leurs réponses est donc un reflet direct de l’accumulation des productions écrites de milliards d’êtres humains. Il en résulte que, nécessairement, plus on fournit d’indices contextuels à l’algorithme, plus ses prédictions pourront être précises.

Le fait est que nos productions linguistiques sont intrinsèquement structurées. Imposer des étapes à l’algorithme, c’est aussi simplement structurer la réponse qui est attendue de lui. C’est donc tout naturel que cela produise de meilleurs résultats. La même chose serait valable pour un humain aussi. Si je donne des instructions claires à mes étudiants sur la façon dont ils doivent structurer leur mémoire, j’obtiens de bien meilleurs rapports que si je les laisse libres de façonner un texte long et complexe. La décomposition de la tâche réduit le champ des solutions possibles et facilite le problème.

Le projet ASTOUND, lancé il y a quelques mois, part du principe qu’une machine disposant d’un modèle interne de ses mécanismes d’attention peut témoigner d’une expérience consciente. On peut être tenté de rapprocher la théorie du schéma d’attention (TSA) de Michael Graziano de l’architecture des transformeurs, fondée elle aussi sur des mécanismes d’attention. L’article qui présentait cette architecture était d’ailleurs intitulé « Attention Is All You Need« . Un programme fondé sur les transformeurs (comme ceux de la série GPT) est-il capable de développer un schéma d’attention ? Sinon, quel ingrédient manque-t-il ?

Effectivement, on peut être tenté de rapprocher la TSA du modèle des transformeurs qui se basent également sur des mécanismes attentionnels. Toutefois, lorsqu’on regarde sous le capot, on s’aperçoit que ce qui est appelé « attention » dans les transformeurs est un mécanisme très différent de ce qu’on peut appeler attention chez l’humain. Tout l’enjeu de notre projet va donc résider dans le développement d’un algorithme qui serait basé sur la TSA, c’est-à-dire un modèle humain de l’attention. L’espoir étant d’améliorer les performances de nos algorithmes grâce à un traitement plus efficace de l’information.

Selon la TSA, issue de réflexions plus anciennes de Dennett ou Churchland, nous sommes piégés dans une « boucle » (loop) nous empêchant de voir que notre conscience est une caricature de mécanismes neurobiologiques sous-jacents. La notion de « représentation » revient à de nombreuses reprises dans les écrits de Graziano. Or une représentation ou une caricature impliquent un émetteur et un récepteur. Comment expliciter cette boucle ?

Le problème corps-esprit est l’un des plus vieux problèmes en philosophie. Comment expliquer qu’un objet matériel, le corps, donne lieu à une expérience de vie intérieure qui échappe à toute observation scientifique ? Dans quel espace évolue cette expérience immatérielle ? Les théories actuelles de la conscience convergent vers une explication en termes d’information. Ceci nous amène à repenser la notion même de réalité à travers le prisme de l’information. Une des solutions possibles à ce problème millénaire est apportée par la cybernétique (au sens large de la combinaison de la théorie de l’information et de la théorie de la calculabilité) : l’expérience phénoménale pourrait s’étendre dans un espace virtuel, réalisé par notre corps compris comme un mécanisme naturel de traitement de l’information. Toutefois, on ne peut pas à ce jour se prononcer définitivement sur la question. Il est nécessaire de poursuivre nos recherches, notamment sur la nature même de l’information. Ce qui est certain, c’est que les recherches en matière de conscience artificielle vont nous permettre d’éclairer notre compréhension scientifique du problème corps-esprit.

La question de la motivation et des objectifs des grands réseaux de neurones paraît capitale, à la fois d’un point de vue technique et éthique. Les motivations humaines sont issues de notre biologie, mais nous développons en société des objectifs secondaires et changeants (sans parfois même en être conscients). Pensez-vous, comme Blaise Agüera y Arcas, que la clé de la bienveillance (faute d’autre mot) des IA résidera essentiellement dans le choix judicieux de leurs « éducateurs » et de leur corpus d’entraînement ?

Selon l’hypothèse Gorniak, formulée dans les années 90, la révolution informatique va nous forcer à avoir des discussions éthiques à une échelle globale. On la voit se réaliser aujourd’hui. De nombreux efforts pour encadrer, réguler et accompagner un développement responsable et favorable de l’IA ont émergé d’institutions variées autour du globe. Ces discussions convergent sur des listes de principes que ces systèmes doivent respecter. La bienveillance en fait effectivement partie. Il s’agit d’un principe que tout concepteur d’IA se doit de respecter aujourd’hui. Ces technologies ont véritablement le potentiel de nous aider à améliorer la condition humaine. C’est pourquoi il est primordial de développer des applications bienveillantes. Mais ce n’est pas le seul enjeu. Car cette bienveillance est notamment affectée par la définition qui est choisie de l’équité ou par la fiabilité des réponses du système. L’équité et l’explicabilité posent des défis techniques et politiques particulièrement difficiles. Contrôler les corpus d’entraînement est déjà un bon début, mais ça ne suffit pas pour résoudre le problème. Il faut davantage de recherche, et dans ce sens nous avons bon espoir avec le projet ASTOUND de contribuer à la conception d’IA plus fiables et bienveillantes.

L’un des enjeux du projet ASTOUND est de faire en sorte que les IA amenées à cohabiter avec nous à l’avenir nous envisagent (et s’envisagent elles-mêmes) comme des entités dotées de conscience. La page de présentation du projet propose donc de penser les IA de demain non pas comme des outils, mais comme des partenaires à part entière. Cela implique-t-il une réflexion sur la personnalité juridique de ces systèmes ?

Nous pouvons déjà faire dire à des IA qu’elles sont conscientes. Ce fut le cas par exemple avec LaMDA qui a réussi à convaincre Blake Lemoine de sa sentience. Chez ASTOUND, notre objectif est d’implémenter un module de conscience artificielle basé sur les travaux de Michael Graziano afin d’améliorer les performances des agents conversationnels. L’agent que nous allons développer ne sera pas doté de mécanismes de plaisir ou de douleur. Il ne sera pas « conscient » au sens phénoménal. En revanche, il aura une plus grande palette des fonctions de la conscience. Il aura une forme de conscience fonctionnelle. Il est important pour nous de ne pas induire de confusion à ce sujet chez l’utilisateur, car l’anthropomorphisation des machines peut avoir des effets néfastes que nous souhaitons éviter. Dans la mesure où ses fonctions lui donneront un sens d’agentivité, nous souhaitons développer une forme de moralité dans ce chatbot, afin qu’il adopte un comportement bienveillant et adapté à l’utilisateur. Mais dans la mesure où cet agent n’aura pas d’expérience phénoménale comparable à la nôtre, il n’est pas encore nécessaire d’accorder de personnalité juridique à proprement parler à ces systèmes. Néanmoins, il s’agit de réflexions qu’il faut commencer à avoir et qui commencent déjà à se poser, par exemple dans le domaine de la création artistique. 

A plus long terme, comment voyez-vous l’évolution probable des rapports entre humains et machines intelligentes ? L’Humanité est-elle sur le point de connaître une sorte d' »explosion cambrienne » d’êtres intelligents ? Comment envisager et anticiper cette multiplicité et cette complexité ?

Oui, l’humanité est à l’aube d’une transformation profonde et durable. Il est difficile de prédire son évolution car il s’agit d’une longue échelle temporelle, au cours de laquelle de nombreux autres événements pourront se produire. Ces technologies offrent de nombreuses possibilités d’améliorer notre quotidien, d’augmenter notre expérience de vie humaine. Il ne tient qu’à nous de bien les exploiter. Il est crucial de trouver une bonne harmonie entre humain et machines, et d’intégrer le tout respectueusement dans la nature.

______

Liens utiles :

Projet ASTOUND : https://blogs.upm.es/astound/en/

Hypothèse Gorniak : lien

Graziano Lab, TSA : lien

Propos recueillis par Emmanuel Gauvain