Sauver le symbole

Nous pouvons nous accorder avec certains critiques du transhumanisme pour dire que la convergence NBIC met en question notre rapport au langage et aux symboles. Or, il est probable qu’ils contribuent à ce qui fait émerger l’humain. Une pensée transhumaniste peut-elle relever ce défi ? Le symbolisme s’évanouira-t-il dans nos machines computationnelles ?

Publié le 20 mai 2017, par dans « Intelligence artificielle »

Les langages humains découlent d’un ensemble de symboles structurés, c’est-à-dire que des communautés conviennent d’un sens commun attribué par projection à de mêmes signes ou figures [1]. Cependant, pour la discussion qui va suivre, il est important de noter que, les spécialistes de la symbolique (linguistes, philosophes, psychanalystes, etc.), insistent particulièrement sur l’idée qu’un symbole ne devrait pas être confondu avec les signes qui le portent, ni même avec les expressions qui empruntent au symbolisme, comme les métaphores ou les allégories [2]. Pour Carl G. Jung, l’un des pères de l’étude des symboles, « Ce que nous appelons symbole est un terme, un nom ou une image qui, même lorsqu’ils nous sont familiers dans la vie quotidienne, possèdent néanmoins des implications, qui s’ajoutent à leur signification conventionnelle et évidente. Le symbole implique quelque chose de vague, d’inconnu, ou de caché pour nous.». Jung va même plus loin, considérant que le sens profond des symboles ne peut qu’échapper à la raison. De fait, certains d’entre eux adoptent une attitude qui peut ressembler à un spiritualisme [3].

Quoi qu’il en soit, spiritualisme ou non, tous s’accordent pour dire que l’élaboration progressive de ces conventions est constitutive de l’humain. Mieux, cette construction a pu accompagner chez lui l’émergence d’un degré “supérieur” de conscience – celui qui lui permet d’être conscient de sa condition mortelle et de se projeter à long terme dans le passé comme dans le futur. Elle a donc eu besoin d’au moins deux facteurs essentiels, l’altérité et le symbolisme.

Or, divers critiques du transhumanisme, au premier rang desquels le philosophe français Jean-Michel Besnier, soulèvent une interrogation qui me paraît légitime et à laquelle, à ma connaissance, les transhumanistes n’ont toujours pas répondu. Dans la plupart de ses derniers ouvrages, Jean-Michel Besnier, entre autres craintes, se demande avec anxiété si notre fusion progressive avec la machine ne nous conduira pas à  sacrifier le langage et le symbolisme [4].

Or, je suis d’accord pour dire que cette question doit être posée. Que signifie-t-elle ? Que met-elle en jeu ? En quoi la cyborgisation déjà en cours nous ferait-elle courir ce risque ? Et, si nous avons quelque chose d’important à y perdre, à quelles conditions pourrions-nous le sauvegarder ?

 

Langage et symbole

Le langage n’est pas l’apanage de l’humain. De manière générale, il s’agit d’un ensemble de signes, de codes et de structures codantes plus ou moins élaborées qui permet la communication entre plusieurs supports de mémoire ou plusieurs acteurs porteurs et créateurs de sens. De fait, en octobre 2016, deux ordinateurs (Intelligences Artificielles) ont développé un langage original grâce auquel ils ont été capables d’échanger des informations sans que les programmeurs humains originels, ni même une troisième IA ne parviennent à décoder le langage qu’ils avaient élaboré [5]. Par ailleurs, Il est depuis longtemps établi que des animaux, notamment les insectes sociaux, utilisent des langages, comme le vol des abeilles, pour se transmettre des informations. Quant aux humains, c’est bien dans toutes leurs cultures qu’ils combinent langage gestuel et langages articulés qu’ils ont, depuis quelques millénaires seulement, transcrits en codes écrits, par le biais de pictogrammes, d’idéogrammes, de systèmes alphabétiques ou encore, plus récemment, numériques.

Nous le vérifions, dans absolument tous ces exemples, pour que le langage émerge et qu’il ait un sens, existent les deux conditions que nous avons signalées : d’une part il nous faut au moins deux interlocuteurs, tous les deux susceptibles de produire et recevoir du sens, d’exprimer une information et de percevoir l’information en provenance du vis-à-vis. D’autre part, il nous faut un symbolisme, c’est-à-dire une fonction attribuant du sens à des signes.

 

Selon le dictionnaire, le mot “symbole” provient du grec “sumbolon” : <<un objet coupé en deux, dont deux hôtes conservaient chacun une moitié>>, constituant <<un signe de reconnaissance quand les deux porteurs pouvaient mettre ensemble (sumballein) les deux morceaux>> [6].

Mais pour être plus précis, voyons ce que nous dit l’étymologie. Un sym-bole est littéralement ce qui est mis, ou encore, ce qui est « jeté ensemble » (συμ-βολή, en grec ancien, du préfixe « συμ- » = avec/ensemble, et du verbe βάλλειν = jeter). Mieux, « βολή » (volée) désigne couramment en grec la « volée » de flèche. Le symbole devient alors ce qui est « projeté ensemble ». Pour un peu de poésie, j’ai envie de dire que le « sym-bole » présage un con-volement 🙂

De l’étymologie à l’éthologie : les résultats publiés assez récemment d’une étude portant sur les Bonobos donnent à réfléchir sur les conditions dans lesquelles le langage articulé a pu être développé au sein du genre homo [7]. Ces singes arboricoles semblent capables de développer un système élaboré de vocalises qui correspondrait en fait à un langage de plusieurs centaines de mots lesquels, structurés « grammaticalement » et syntaxiquement, leur donneraient la capacité d’exprimer par la voix non seulement besoins et désirs mais encore concepts abstraits et sentiments … Développent-ils un symbolisme ?

En accord avec Jean-Michel Besnier [8] comme avec la plupart des linguistes [9] et des paléo-anthropologues, nous devons partir de l’hypothèse que ces conditions ont dû jouer un grand rôle dans le cours de l’hominisation. Autrement dit, il n’y aurait pas d’humain sans elles. Le langage symbolique et la parole articulée paraissent être des éléments non suffisants, mais nécessaires, de l’hominisation. Cependant, un langage ne peut être créé que dans le cadre d’un dialogue. Sa fonction est de nous permettre de communiquer. Nous l’avons vu, elle est aussi une sym-volée car nous la projetons ensemble. C’est probablement de cette communication particulièrement élaborée (associée au développement important du néo-cortex) que naît la conscience dite « supérieure » (chez Jean-Pierre Changeux ou Antonio Damasio) propre à l’humain. En effet, l’humain n’a-t-il pas besoin d’une altérité pour savoir qu’il existe ? N’est-ce pas aussi en fonction de ses rapports d’attachement, de dépendance ou de dominance avec les autres (l’Enfer !) qu’il définit progressivement sa propre identité ?

 

La menace d’une perfection numérique

Gestuelles, paroles, écritures, les humains ont donc élaboré tous ces systèmes de langages les uns après les autres à travers les âges, à un degré de complexité inégalé dans le règne animal. Mais tout récemment, ils y ont ajouté les langages numériques, binaires, dont la symbolique élémentaire se restreint à cette alternative : 0 ≠ 1. La question est de savoir ce que cela change.

En réfléchissant à cette interrogation, je me suis proposé un jour d’imaginer que j’assistais à une scène convenue. Donc il m’est venue en tête l’image mentale « beau et grand papillon bleu s’envolant d’une tulipe et traversant l’orangeraie pour aller se poser au pied de la vieille barrière en bois. ». Puis, je me suis dit – le crapaud tapi près de la barrière aura une image mentale du papillon et décidera de projeter sa langue avant de croquer le papillon mais ne produira pas de symbole. Par contre l’humain lui, vous, voit le papillon (fermez les yeux et vous le voyez déjà), en construit une image mentale, neuronale, puis est capable de communiquer cette image par divers jeux de signes et de symboles (ce que j’ai fait ici). Quant à l’ordinateur, par une double interface 1/programmation ; 2/retransmission (par le biais d’un écran), il permet aussi à l’humain de communiquer une équivalence de l’image mentale chargée de symbole. Dans tous les cas, le message émis passe par un support matériel intermédiaire. L’air qui porte l’onde sonore, la page qui porte l’encre du dessin ou de l’écriture, le silicium où s’ouvrent et se ferment les transistors du code numérique. Dans tous les cas, le message originel peut donc être distordu, filtré, détourné, modifié de diverses sortes durant son transit, en fonction des matériaux ou des interférences qu’il rencontre. Dans tous les cas, il est encore interprété différemment selon les propriétés, l’état et le vécu de l’organe ou de l’artefact récepteur, ainsi que du centre de traitement de l’information (cerveau ou autre).

 

Que craint Jean-Michel Besnier ? Autant que je comprenne, il admire et il revendique – à mon avis à raison – que tout cet ensemble de perturbations et de dysfonctionnements possibles dans la transmission du message nous oblige à une perpétuelle attention à l’autre, à un dialogue ininterrompu et passant par la vérification que nous continuons, avec l’autre, à nous entendre sur les mêmes symboles [10]. Selon cette hypothèse, l’imperfection de la qualité de nos échanges est aussi une source d’attention à l’autre d’où émerge une dimension essentielle de notre humanité. Or, ce dont s’inquiète JMB, c’est qu’une fois de plus dans l’histoire humaine, depuis quelques décennies l’évolution de nos techniques remet en cause notre mode de signification. Puisque les binômes outil/technique & signification/langage, sont deux des sources fondamentales de l’hominisation, à chaque fois que nos techniques transforment nos modes de significations, cela provoque un bouleversement culturel [11]. L’inquiétude du monde occidental, que Jean-Michel Besnier ne fait qu’exprimer, est un témoignage de ce bouleversement et du désarroi qu’il provoque.

Mais l’auteur de L’Homme simplifié va plus loin. Ce qu’il redoute, c’est que les langages mathématiques avec lesquels nous programmons nos machines  computationnelles soient à l’origine d’une nouvelle déconnection entre le monde des techniques et celui des lettres. Il alerte de la menace que l’univocité des signes mathématiques ferait, selon lui, courir face à ce qu’il considère comme une ambiguïté salvatrice des symboles littéraires [12]. Il condamne évidemment la tendance à la modélisation, à la simplification, au réductionnisme scientifique notamment incarné par Descartes et la pensée moderne, lorsque celle-ci confond le modèle et la réalité, “la carte et le territoire”. De manière générale, il s’insurge contre l’idée qu’il faille « confier le destin du langage aux TIC » [13], à des 1 et à des 0.

Une perspective semble l’effrayer plus que toute autre, celle de la télépathie technologique. Qu’une communication directe cerveau-à-cerveau fasse disparaître la nécessité de la parole articulée ou de l’expression gestuelle, cela ne signerait-il pas la mort du symbolisme et par là-même de l’humain ? Dit d’une autre manière, de l’expérience de Abadi et Andersen citée plus haut, communication directe entre deux IA, rien d’humain ne pourrait sortir car, malgré l’élaboration commune entre les deux machines de significations et d’un langage, ferait irrémédiablement défaut l’absence de ces imperfections indispensables au symbolisme, l’approximation, l’incertitude, la saute d’humeur.

 

3/ De la télépathie technologique

 

À partir de 1998, le professeur Kevin Warwick, de l’université britannique de Reading, réalise une série de  premières sur les interfaces directes homme-machine. En 2002, il contrôle, à travers l’internet, une main robotique par la pensée. En 2004, après avoir équipé son épouse et lui-même d’un implant électronique placé dans le bras, ils parviennent à échanger à distance des sensations, proclamant qu’il s’agit d’une première forme de télépathie technologique.

https://en.wikipedia.org/wiki/Kevin_Warwick#Project_Cyborg

 

Tout en considérant l’avertissement de Jean-Michel Besnier, et tout en sachant que le philosophe se refuse à la technophobie, je ne peux m’empêcher de trouver que ces craintes répétées donnent l’impression d’une sacralisation effrayée du mode biologique qui nous est connu et d’une démonisation fantasmatique de la technique. Imaginer que la fusion avec la machine va nous plonger dans un éternel mode « sans erreur », nous condamnant à des relations inéluctablement froides et hyper-individualistes, n’est-ce pas une vision très romantique au fond, d’un romantisme noir, à la Mary Shelley ? [14]

En réalité, nous savons bien, de par nos fréquents arrachages de cheveux chaque fois qu’une application informatique ne fonctionne pas alors qu’elle devrait fonctionner, que la symbolique mathématique utilisée par nos ordinateurs, Intelligences artificielles faibles, n’est pas parfaite. Tous les langages informatiques programmés connaissent des bogues. Tout au plus, la progression continue de notre maîtrise sur le réel, ou même celle de nos outils informatiques, a pour conséquence un recul seulement relatif de la part que nous laissons au hasard. Mais sur un réel aux dimensions infinies, la maîtrise ne saurait être absolue. Quelle soit aujourd’hui électronique et même déjà quantique, notre informatique sonde l’infiniment petit en considérant rationnellement qu’elle n’en touchera jamais le fond. De ce fait, parce qu’elle reposera sur un substrat physique soumis aux aléas contingents de la matière, je pense raisonnable de considérer que même une intelligence artificielle forte issue de la programmation d’une autre IA sera sujette aux sautes d’humeur.

Bien sûr, beaucoup diront que cela ne change pas grand chose. Qu’est-ce que cela ferait à notre intelligence biologique de savoir que l’IA forte peut se tromper, ou hésiter, à raison en moyenne d’une fois tous les milliards de milliards (10 puissance 18) d’information traitées à la seconde (exaFLOPS), voire moins ? De notre point de vue subjectif (environ 10 puissance 13 informations traitées à la seconde par notre cerveau et un tiers de seconde pour qu’une seule information extérieure parvienne à notre conscience), elle nous donnerait l’impression, au regard de ses règles de programmation, de ne jamais ni se tromper, ni hésiter.

Et pourtant, je pense que cela change tout. Le simple fait de savoir que l’IA forte, sera susceptible de se tromper, être incertaine, vulnérable, ne pourrait-elle pas contribuer, ainsi que ses langages, à la rendre éligible, au statut de personne, égale en dignité et en droit aux autres humains ? Tout en lui accordant une place de plus en plus grande parmi nous et en lui confiant une part de plus en plus importante de nos responsabilités (Recomptez-vous toujours le nombre de vos billets de banque après un retrait de liquide à un guichet automatique ?), nous continuerons à la mettre en doute et à exiger d’elle, ponctuellement, de nous confirmer que nous nous entendons toujours bien sur nos valeurs communes et sur nos symboles.

Par ailleurs, il est tout de même important de rappeler que dans un avenir proche, les imprécisions resteront nombreuses. D’une part, nous pourrions décider délibérément d’élaborer des supports informatiques restant « imprécis », mais surtout, le mode sur lequel l’intelligence artificielle est actuellement développé est probabiliste. Il ne fait jamais qu’approcher l’exactitude du réel et, tout comme nos constructions symboliques, il reste dans le domaine de l’insaisissable approximation [15].

Pareillement, la crainte que la fusion homme-machine-intelligence artificielle ne puisse déboucher que sur une perte de symboles déshumanisante me  paraît éluder cette constante d’un principe d’incertitude. Dans la perspective de la télépathie, qui inquiète particulièrement le philosophe, je vois mal que la communication puisse se dispenser de la vérification intersubjective. Je ne vois pas non plus qu’elle se différencie fondamentalement de nos échanges les plus courants.

En effet, la télépathie impliquerait schématiquement un enchaînement :

→ pensée biologique → traduction par un implant en langage binaire →  communication de cerveau à cerveau par les ondes électro-magnétiques d’émetteurs-récepteurs → décodage → pensée biologique.

Le dialogue oral, quant à lui, demande :

→ pensée biologique → expression vocale → communication « de bouche à oreille » par ondes sonores → décodage du son (tympan, osselets, cochlée, nerf auditif, cortex auditif) → pensée biologique.

De surcroît, pour être porteur d’un sens, les signes échangés d’un bout à l’autre de la chaîne auront besoin de reposer sur un sym-bolisme. Que celui-ci s’exprime par des enchaînements de vocalises, des suites de bits ou des représentations mentales, cela importe-t-il ?

En réalité, seule l’expérience nous le dira.

C’est peut-être forts de cette incertitude que les transhumanistes peuvent se permettre d’inviter à aller au-delà de la conservation du symbolisme dans son état actuel. Le transhumanisme proposera donc de l’enrichir, d’élever (enhance) la “volée commune”, de tirer plus haut, de voir plus loin.

 

Cependant, une pensée transhumaniste ne peut pas se contenter de démystifier les fantasmes que nos peurs projettent sur notre avenir inconnu. Elle doit montrer, ou inventer, les perspectives et les usages par lesquels la fusion progressive avec l’outil informatique ou toute forme d’intelligence artificielle ou synthétique permettra non seulement une préservation de l’humain mais encore une amélioration de l’humanité, une amélioration du « vivre ensemble » cher à Jean-Michel Besnier mais aussi une amélioration des chances d’une pérennité commune. Le transhumanisme doit donc dire comment est-ce qu’il envisage de préserver la fonction symbolique à travers les nouveaux artefacts dont il se fait le promoteur. Autant dire que cette réflexion est loin d’être terminée.

 

Notes :

[1] Petit Robert : << de langue, 1. Langage : Fonction d’expression de la pensée et de communication entre les hommes, mise en oeuvre au moyen d’un système de signes vocaux (parole) et éventuellement de signes  graphiques (écriture). >>

[2] Gilbert Durand, Les structures anthropologiques de l’imaginaire, Dunod, 1960 ; Jean Chevalier, Alain Gheerbrant, Dictionnaire des symboles, 1969, 1982.

[3] Carl G. Jung, « L’homme et ses symboles », Robert Laffont, 1964, p.20/21. NB : Jung fut l’un des principaux disciples de S. Freud.

[4] Jean-Michel Besnier, L’Homme simplifié : le syndrome de la touche étoile, Fayard, 2012 ; Jean-Michel Besnier et Laurent Alexandre, Les Robots font-ils l’amour, Dunod, 2016

[5] Martın Abadi and David G. Andersen, arXiv, « Learning to protect communications with adversarial neural cryptography », October 24, 2016, https://arxiv.org/pdf/1610.06918.pdf.

[6] A. Bailly, Dictionnaire Grec-Français ; Petit Robert.

[7] « Les vocalisations des bonobos présentent des similarités avec le langage humain ». Voir notamment les travaux de Zanna Clay, par exemple in Daniel Dor, The Social Origins of Language, OUP, 2014.

[8] JMB, Homme simplifié, op.cit., pp. 62-63.

[9] Pour le linguiste Noam Chomsky également, nos langages émergent de structures mentales qui ne doivent se trouver que dans notre espèce.

[10] JMB, Homme simplifié, op.cit., pp. 64-65.

[11] voir par exemple la thèse développée par Peter Sloterdijk dans Règles pour le parc humain, 1999, et La Domestication de l’Être, 2000.

[12] En cela, il va encore dans le sens de Peter Sloterdijk, pour lequel c’est notamment l’humanisme permis par la lecture qui a permis la civilisation, celle-ci étant mis à mal par les médias de masse (radio, télé, cinéma, internet …). Parc humain, op.cit.

[13] TIC = Technologies de l’Information et de la Communication. JMB, Homme simplifié, op.cit., pp. 67.

[14] Auteure de Frankenstein, ce célèbre roman soutient que l’usage de la technique pour manipuler, voire créer la vie humaine, ne peut que relever de l’hybris et nous mener à la catastrophe.

[15] Alexandre M., AFT-Technoprog, “Non, l’Intelligence Artificielle n’est pas « purement logique »”, 15/04/2017, http://transhumanistes.com/non-lintelligence-artificielle-nest-purement-logique/

Porte-parole de l’Association Française Transhumaniste : Technoprog, chercheur affilié à l’Institute for Ethics and Emerging Technologies (IEET). En savoir plus