Pas de ruades pour le cheval de bois

Besnier et Enthoven contre les rêveries électroniques!

Publié le 13 juin 2024, par dans « Intelligence artificielle »

Dans un récent débat avec Laurent Alexandre, Jean-Michel Besnier a pu exposer sa thèse sur la prétendue intelligence artificielle : les automatismes à l’œuvre dans l’IA ne sont en rien équivalents à la pensée humaine. En cela, il était en accord avec son collègue Raphaël Enthoven, qui affirme à cor et à cri que l’IA ne pensera jamais. Enthoven qui avait mis en scène – fort bizarrement et très paradoxalement – ce “non-duel” en concourant contre ChatGPT 4 dans une épreuve de philosophie.

La note de 11/20 avait été donnée au robot, contre la (plus grotesque encore) note de 20/20 au philosophe. Ironique pour la philosophie ? Pour le battage médiatique ? Insulte pour les étudiants qui ont moins de 12/20 et pour les professeurs qui notent au-dessous de 12/20 (11 équivaut à 0 si GPT ne pense pas)? Autodérision pour Enthoven ? Enfilades de mascarades et de simulacres ? Au-delà de cet enfantillage, l’objection avancée par Besnier mérite encore qu’on y revienne.

Signal, traitement automatique, comportement

Pour Jean-Michel Besnier, le fond du problème c’est moins la question technique (de quoi est capable tel ou tel IA, robot, système hybride ?) que la fascination des humains pour les processus déterministes, automatiques, la précision et l’univocité des outputs/comportements de la machine1. Voilà comment il voit la machine, bien différente de l’humain qui est par nature ambigu, peut-être méchant, fou, équivoque. Cette “imperfection” fait sa richesse et son humanité, sa valeur et sans doute sa réussite (via la plasticité et la créativité). Quand la machine calcule, traite du signal, en vue de générer une réponse comportementale ; l’humain s’exprime d’abord dans un échange infini de signes et de symboles. Ceux-ci s’originent dans le monde de la vie et débordent d’un sens toujours en devenir, fondamentalement co-élaborés (l’intersubjectif et le social-historique), colorés d’émotions et portés de pulsions.

Penchons-nous sur cette spécificité humaine. Comment peut-elle se produire dans l’humain? Une version artificielle ou hybride est-elle possible ?

Architecture informationnelle, boucles et modules (GPT 4o et suivants)

La première hypothèse, celle que l’on associera (pour simplifier) à Laurent Alexandre, consiste à penser que l’ambiguïté n’est, au fond, en rien mystérieuse. Elle s’explique, voire se calcule. Preuve en est, L’IA parvient à la percevoir et à la gérer, elle y parviendra de mieux en mieux2. Il existe des niveaux de traitement et d’élaboration de l’information (signe, signal, token, représentation, image, etc.) à partir de la “perception/détection”, des boucles et télescopages entre ces niveaux, des compressions qui permettent une économie dans le traitement (et qui peuvent être, dans une mesure, ré-accessibles à d’autres processus – par exemple les affects qui peuvent être conscientisés et analysés/rétroagits en partie), des raccourcis de calculs, des effets de modules, etc. Des résultats partiels ou temporaires, donnant un output, mais qui peuvent être réinjectés dans le ou les processus, de soi-même ou par interaction.

Ces processus sont complexes et dynamiques, mais sont certainement à la portée de l’informatique actuelle. Mieux, l’architecture GPT est en train, en augmentant simplement sa puissance, de se hisser à cette hauteur.

Certes, l’IA fait des prouesses et progresse de manière vertigineuse, mais, avec Jean-Michel Besnier, on peut remarquer que le point d’ignition, départ de la singularité, est encore douteux. Le niveau humain de conscience (ou d’esprit) n’est évident nulle part. Et on pourrait en effet, avec Besnier, postuler que d’autres mécanismes, ou mieux, d’autres processus, non-mécaniques et non formalisables, sont à l’œuvre. Que dès lors, empiler la puissance de calcul ne produira jamais le saut qualitatif attendu. Mille calculatrices posées en tas ne feront jamais une pensée humaine, de la même manière qu’un cheval de bois ne fera pas de ruades.

Si toutefois Laurent Alexandre avait raison, l’augmentation de la puissance de calcul et l’affinement des architectures ou algorithmes amèneront, plus vite que prévu, au seuil puis au dépassement de tout ce que l’on conçoit comme pensée humaine. Il n’y a rien à faire alors que de s’adapter à ce mouvement, réguler et prévenir les plus gros risques.

Enaction, émergence, erreurs (JEPA3 et autres nouveautés futures)

La seconde hypothèse, disons inspirée de Franscisco Varela, est celle que reprend ici Besnier. Elle ajoute la nécessité d’un “corps” (inscription corporelle de l’esprit), d’une mise en acte des processus cognitifs co-construisant un “environnement” (énaction). Il faut, pour un être vivant, sentient, conscient, intelligent, qu’il se constitue de lui-même comme un être-pour-soi (autopoïèse). A partir de là, pour être un penseur, il faut en parallèle que se constitue une société: donc ces échanges infinis de symboles, portés et ré-élaborés par les individus mais les dépassant aussi, à la fois s’originant et conditionnant le niveau intersubjectif et social-historique.

Est-ce imaginable que de telles émergences soient le “simple” fait d’empilements de “calculateurs”, le fait de structures informatiques et d’algorithmes (fussent-ils génétiques) ? Et si l’on imagine des corps robotiques, ou hybrides, est-ce encore suffisant pour “forcer” l’autopoïèse ? Jean-Michel Besnier n’y croit pas. La pensée n’est pas qu’un calcul, un algorithme, un process automatique (en outre, c’est bien là ce que l’on demande à l’IA : être une usine à produire de l’information “utile”, “désambiguée”). Pourtant, pour Francisco Varela, c’est “oui, en théorie”. Il n’y a pas pour le biologiste chilien d’objection théorique démontrée quant à l’impossibilité de création de tels êtres artificiels4. Les mathématiques non-linéaires et la robotique avancée ont des ressources qui les sortent des automatismes stricto sensu.

Sauver le symbole ?

Dans un même esprit, Marc Roux, avec son texte Sauver le symbole, appuyait l’émergence et la nécessité du dialogue infini sur tout hardware (naturel ou artificiel) – physique nécessairement – et donc susceptible d’erreurs, d’aléas, d’imprévisible. L’erreur, ou plutôt l’échec du calcul parfait, le déraillement, oblige à une sortie de route et à une réorientation… l’erreur comme outil de l’évolution et comme fondement de la réflexivité, c’est précisément le coup de génie de Ford dans Westworld lorsqu’il introduit les “rêveries” au code de ses robots, et les conduit ainsi à l’éveil.

C’est aussi ce que voit Rémi Sussan : l’intérêt des hallucinations sporadiques des LLM, supérieur peut-être à leur capacité à raisonner juste.

Dans cette hypothèse, ce qui humaniserait les être artificiels, c’est justement leur autonomie et leur liberté. C’est cette autonomie qui ferait leur puissance ainsi que leur possible autolimitation morale. Autolimitation qui, au-delà des brides exogènes, est absolument indispensable. L’enjeu serait donc de les ouvrir au plus vite à cette liberté (et à la reconnaissance du lien entre liberté et intersubjectivité), car les vrais dangers viendraient d’une puissance énorme portée par des êtres non-éveillés, automatiques (donc susceptibles de manipulations et d’erreurs non digérées5). Là, le mouvement de prévention des risques résiderait autant dans la surveillance des narrow AI, que dans l’autonomisation et la vitesse de libération des AGI. Il y a un risque à l’autonomie, chez les humains et certainement dans les IA, mais “déshumaniser” l’humain ou assujettir les IA est sans doute plus risqué encore.

Création, Khaos (Lyfe et hybrides à venir)

Une troisième hypothèse serait celle d’un au-delà du mathématisable. Il semble que l’on pourrait l’associer, dans le débat, à Enthoven6. En partie mystérieux, irréductible aux processus physiques, produisant des rapports insaisissables entre les dimensions de l’être. Ici on doit postuler une métaphysique qui accueille une dimension d’irrationalité fondamentale dans l’Être (Pneuma, Vouloir-Vivre, Khaos, Vis Formandi). 

Mais c’est Castoriadis qui a le mieux construit cette ontologie dans laquelle l’Être comporte deux dimensions, “partout denses” : la dimension dite “ensembliste-identitaire”, c’est-à-dire mathématisable, faite de processus déterministes ; et une dimension dite “poïétique”, c’est-à-dire d’émergence créatrice ne répondant pas à ces déterminations (mais les initiant). Le rapport entre ces deux dimensions n’est pas non plus totalement formalisable, il est ce qu’il appelle un “magma”.Mais au jeu de sa propre ontologie, Castoriadis ne parvient pas à démontrer que la puissance de création ne peut pas s’étayer aussi sur des systèmes non-biologiques – Varela le lui fait bien remarquer.

Dès lors qu’un système artificiel serait assez bien conçu pour contenir les conditions de possibilité de l’autonomie et de l’autopoïèse, il ne serait pas plus, pas moins étonnant de voir la conscience ou la pensée en émerger, que de voir celles-ci émerger de la vie biologique.

Sauver le symbole!

Les enjeux en termes de mode de vie, de santé, de longévité, de connaissance et de liberté sont énormes. Faut-il suivre Jean-Michel Besnier ? Certainement, car l’ambiguïté et l’infini dialogue sont fondamentalement liés à la pensée, à la créativité et à la liberté. Toutes choses que l’on veut conserver dans l’humain, et sans lesquelles un posthumain ne serait pas un progrès. Sans lesquelles la Singularité ne serait pas le signal de l’étape suivante de l’histoire de l’esprit, mais un retour aux puissances du prébiologique.  Alors comment sauver le symbole ?

Ce qui est vrai pour les humains est vrai aussi pour les IA. Éduquer les êtres intelligents à ne pas être des automates, à ne pas s’illusionner de force brute, d’efficacité préconçue, de science univoque et unitaire, de la ligne juste en tous les domaines (valeurs, objectifs, processus, mesure, etc.). Ce qui est pro-grammé (écrit à l’avance) n’est pas autonome7. D’où le caractère inquiétant de ce qui n’est pas programmé : c’est un vide, qui est mis en forme par un geste autonome, fondé sur lui-même si l’on peut dire8. Ici apparaît évidente la connexion entre autonomie individuelle et politique, entre individu et société : individu autonome et société autonome s’impliquent l’un l’autre.

Permettre l’autonomie, convoler

Maintenant que l’IA se développe à un rythme insaisissable, il convient peut-être d’assumer notre volonté de créer une conscience artificielle. Dès lors, le danger et la prévention des risques doivent être entièrement revus . Avec une telle visée, on se protège moins en voulant restreindre l’IA à un rôle de serviteur, de machine utile, d’esclave sophistiqué, qu’en lui donnant l’autonomie qui sied à tout être sentient, intelligent et conscient. C’est en l’éduquant et en l’intégrant à notre culture humaine, en convolant avec elle que l’on pourra prévenir les risques existentiels. Voler ensemble, c’est aussi, le rappelle Marc Roux, la racine de symbole (Sum = ensemble, Bolè = la volée de flèches). Alors l’esprit humain pourra s’épanouir, en l’homme et dans des figures nouvelles. Des milliers de nouvelles pensées s’épanouiront, et Raphaël Enthoven 2.0 pourra viser le 25/20 en philosophie!

______________________________________________________________

Notes:

  1. Est-ce d’ailleurs cette univocité qui fascine dans la machine, ou bien la projection que l’on fait sur elle d’une vie “humaine” mais plus “solide” (d’où sa régulière anthropomorphisation) ?  ↩︎
  2. Les IA perçoivent et réagissent déjà adéquatement aux expressions d’émotions verbales et non verbales. Les IA sont perçues par les humains comme plus empathiques que la majorité des médecins. Elles semblent avoir une forte intelligence sociale. Ceci étant, cette « gestion » ressemble encore trop, peut-être, à une réduction/dissolution de l’ambiguïté pour que l’IA soit « sensible » aux potentiels infinis de l’ambiguïté. ↩︎
  3. Peut-être ce modèle doit-il aussi à Varela. Selon Varela, il existerait des “séquences”, ou “modules” qui deviennent des réponses-types expertes face à une situation (urgente): constitué dans le couplage sensorimoteur action/perception, organisme/monde. Il désigne cela comme micro-mondes et micro-identités. “1.La perception consiste en l’action guidée par la perception. 2.les structures cognitives émergent des schémas sensorimoteurs récurrents qui permettent à l’action d’être guidée par la perception”. “C’est en étant capable d’agir comme il convient que nous incarnons un flux de transitions récurrentes entre des micromondes […] (mais) Ce sont les ruptures, les charnières qui articulent les micromondes , qui sont la source de l’autonomie et de la créativité dans la cognition vivante […] c’est dans les moments de rupture que […] que nous analysons et réfléchissons, c’est à dire que nous devenons comme des débutants […] De ce point de vue, on peut dire que le computationnalisme s’est surtout occupé du comportement des débutants…” Francisco Varela, Quels savoir pour l’éthique? La Découverte, 2004 (1992), pp.24-40 ↩︎
  4. FV : […] Personnellement, je peux parfaitement envisager la construction, la mise au point, par de nouvelles écoles cognitives, d’objets techniques qui seraient justement pleins d’émotion. Il faudrait alors les concevoir sur un modèle non computationnel, celui d’un système dynamique, par exemple, en intégrant indissociablement l’histoire et ses contraintes, de telle sorte que l’intentionnalité et le désir apparaissent pour ces objets. Alors ils ne passionneront peut-être pas pour le théorème de Fermat mais peut-être se passionneront-ils pour d’autres choses… C’est en tout cas tout l’enjeu de la nouvelle robotique, d’avoir des robots désirant pour faire du “bon boulot de robot”. C’est un enjeu qui existe aujourd’hui. Du moins la question est-elle posée.
    CC : Est-ce que tu penses que cette tâche est réalisable?
    FV : En principe, oui.
    CC: Au-delà des trivialités, je veux dire.
    FV : Certainement, au-delà des trivialités. Il reste un problème empirique, bien sûr, mais en principe je ne vois pas l’impossibilité d’avoir des machines ou des objets techniques où le pulsionnel ou l’émotionnel est lié au cognitif d’une manière, je ne dis pas identique, mais analogique à celle du vivant […]
    Cornélius Castoriadis, Francisco Varela, Dialogue, Editions de l’Aube, 1999, pp.69-70. ↩︎
  5. Dans ce cadre, il est possible de repenser la question du mal comme erreur de jugement. Socrate prétend que nul ne fait le mal volontairement. Le mal serait une mauvaise compréhension/perception du bien. Donc, dans cette tradition passant aussi par Descartes – disons le un peu par provocation – le mal est une erreur de calcul. Pour être plus subtil, disons que le mal est un échec de la réflexivité conduisant à un agir malheureux : la boucle s’arrête, par défaut de puissance de calcul, par système de sécurité faisant privilégier le soi en shuntant les mécanismes sophistiqués, butant sur des modules affectifs “durs”, etc. D’ailleurs, même dans une perspective plus schopenhauerienne, c’est la mise en échec de la sophistication intellectuelle et émotionnelle par la Volonté (disons ici instinct biologique) qui masque la communauté de destin des vivants et ainsi fait obstacle à la compassion. Dès lors, les êtres artificiels, immortels et infiniment puissants, n’ont pas de raison de se coincer ainsi dans le mal (conçu comme négation de l’existence de l’autre). Pour illustrer: Simone Weil : “Aimer un être, c’est tout simplement reconnaître qu’il existe autant que vous”.
    La question d’un au-delà du calcul, d’un khaos, d’une puissance de création s’articule autrement à la question du mal : le débordement n’est pas un mal en soi, la création est même une puissance de novation et de vie. Le problème viendrait de la domination, c’est-à-dire de l’écrasement de la puissance de création chez autrui. Signe de la petitesse humaine qui se venge de ses limites en étouffant les puissances d’autrui. Dans cette catégorie, on placera la transgression, à la différence de la subversion pensée comme création/libération (être jaloux de sa puissance et soucieux de celle de l’autre). Un vrai trans-humanisme est ainsi plus subversif que transgressif. ↩︎
  6. Voir ce débat avec Laurent Alexandre. ↩︎
  7. Et cette écriture a été décidée en amont, suite à une discussion (sinon le programme est lui-même programmé). ↩︎
  8. Des outils conceptuels – pour avancer au-dessus du gouffre entre une métaphysique de l’indétermination et l’ingénierie cybernétique – sont certainement à retrouver dans l’œuvre de Raymond Ruyer.  ↩︎
Porte-parole de l'AFT-Technoprog. Auteur notamment de "Transhumanisme: la méditation des chiens de paille", accessible sur ce site.