Après la génération Z, la génération HA ?
Chez de nombreuses familles d’êtres vivants, y compris l’être humain, ce qu’on appelle l’instinct de conservation de l’espèce consiste en général à donner la priorité aux nouvelles générations - notamment pour l’apport alimentaire ou la sécurité face à un danger. Aura-t-on la même attitude vis-à-vis d’une prochaine génération 100% artificielle ?
Publié le 19 octobre 2018, par dans « Intelligence artificielle • Risques »
Avec le développement des cerveaux artificiels et de l’IA incarnée, il est très probable qu’une forme particulière d’intelligence artificielle, l’IHA (intelligence humaine ou humanoïde artificielle), fondée sur l’imitation du fonctionnement du cerveau (et éventuellement du corps) humain, voie le jour dans les prochaines décennies.
Pour des raisons de coût et de rapidité de développement, il est également vraisemblable que cette IHA s’exprime chez des individus artificiels virtuels, c’est-à-dire existant au sein d’univers simulés. Si ces êtres artificiels sont dotés d’une organisation cérébrale proche ou relativement proche de la nôtre, et qu’ils sont élevés et éduqués dans un environnement de type humain, nous pourrons parler à leur sujet d’HA – humains artificiels. Nous ne parlons donc pas ici de “superintelligences” (quoi que ce terme veuille dire) ni de dépassement de l’être humain, mais bien d’une imitation synthétique, avec toutes les limitations que cela implique.
Généralement, les membres de la communauté de l’IA évitent de verser dans l’anthropomorphisme : ce qui est mis en avant est une IA spécialisée, sans sentiments, un pur outil chargé de fouiller des montagnes de données pour en extraire ce qui nous intéresse, orienté vers des buts précis.
Et d’ailleurs, l’écrasante majorité de l’IA produite aujourd’hui s’inspire des principes généraux du cerveau humain, mais ne s’intéresse pas de près au véritable cerveau humain. Cette façon de faire est souvent comparée à ce qu’il s’est passé pour l’aéronautique : nous avons développé les aérostats puis les avions parce que nous nous intéressions au déplacement d’humains dans l’air, et pas au fait de fabriquer des oiseaux, par exemple. Il s’est passé plus d’un siècle avant que nous n’arrivions à (ou ne décidions de) mettre au point des oiseaux artificiels, qui sont d’ailleurs très réalistes :
https://www.youtube.com/watch?v=EOBKZLLsfzk
Ce n’était pas notre préoccupation première, en fait. Mais pour les Humains Artificiels, la question se pose en d’autres termes.
Il faut être de bien mauvaise foi pour ne pas voir ici ou là des tentatives qui ressemblent à la création d’HA. Ainsi les travaux du laboratoire de Hiroshi Ishiguro, de Ben Goertzel, font passer l’idée d’une imitation de l’être humain. Dans la fiction, cette vision est surreprésentée (les séries Real Humans, Westworld…).
L’IHA ne sera probablement qu’une curiosité au départ, une branche peu productive sur le grand arbre mondial de l’IA. Pourquoi des ingénieurs perdraient-ils en effet leur temps à la mise au point de systèmes peu fiables, bourrés de biais cognitifs et d’atavismes liés au corps biologique ?
Il paraît cependant peu probable que l’HA, potentialité évidente, reste longtemps de l’ordre du tabou. Il se pourrait même que ce soit notre ancestral “instinct” de conservation de l’espèce qui nous pousse à développer des HA.
Le film de Steven Spielberg AI:Artificial Intelligence (2001), les contes Frankenstein ou le Prométhée moderne (1818) ou Pinocchio (1881), montrent la force d’un désir de (pro)création et de protection qui va au-delà de la distinction naturel / artificiel.
Certains mettent en avant le devoir moral de développer des HA pour à la fois améliorer les conditions de vie et augmenter les chances survie de l’espèce humaine, comprise ici dans un sens plus large que sa stricte définition biologique.
Car si nous décidions un jour de prendre en main cette fameuse “conservation de l’espèce”, le choix de développer des HA semble sage : Les HA bénéficient des avantages des machines intelligentes (fragilité amoindrie, possibilité de duplication et donc de sauvegarde, indépendance plus grande au milieu et donc possibilité de voyage interstellaire, etc.), tout en conservant l’essence de ce qui fait notre spécificité, en gros, ce qui nous permet d’interagir et de nous comprendre les uns les autres.
En conséquence, il est possible que se multiplient de jeunes HA, adoptés et éduqués, aux côtés de jeunes enfants créés à l’ancienne.
Il est également possible que ces jeunes HA, bien qu’attachés au départ à leurs parents biologiques si l’on peut dire, grandissent et souhaitent à leur tour procréer virtuellement, ce qui est nettement moins contraignant que dans la vie réelle, et finissent par constituer une population vivant à son rythme (qui pourrait être plus rapide que le nôtre) et ayant ses propres préoccupations.
Arguments contre les HA
Il existe deux arguments majeurs contre les HA : le côté dangereux et incontrôlable de tels “organismes”, et la peur d’un “grand remplacement” pacifique mais inéluctable.
Les HA ne sont pas plus dangereux que les IA de manière générale. Au contraire, leur caractère bridé et programmé pour “imiter” notre biologie (nous sommes empathiques et sociaux) les éloigne a priori de scénarios de toute-puissance [1]. Ainsi la question de la dangerosité des HA se rattache-t-elle à celle, bien plus vaste et plus épineuse, de la dangerosité des IA. Il est inévitable que cette dernière soit amenée à prendre de l’importance dans les années qui viennent. Bref, en termes de dangerosité, l’HA sera à l’IA ce que la mouette électronique est au Rafale : pas de quoi casser trois pattes à un canard virtuel.
L’argument de la résistance des humains biologiques à engendrer des humains à la fois trop proches et trop différents d’eux peut en revanche être entendu [2].
Il est possible qu’une jalousie terrible s’empare des quelques milliards d’humains obligés de faire avec leur condition et pouvant observer le jardin des délices où se vautreraient les centaines de milliards d’HA. Il faudra un certain recul pour accepter notre sort, car notre sensibilité à l’injustice est profondément ancrée en nous.
Selon le philosophe Jean-Michel Besnier, nous développerions une haine de soi dans un monde où l’“inoxydable”, pour reprendre ses termes, serait devenu la norme.
Nous pourrions au contraire prendre cette évolution avec philosophie, humour, et sans égoïsme. Les mouettes volent bien sans que cela pousse les singes à la dépression [3].
La jalousie des vieilles générations envers les jeunes n’est pas nouvelle. Après tout, les jeunes sont en meilleure forme, ont plus de temps devant eux avant la mort, et sont en général plus forts physiquement. Chaque époque a eu sa “peur des jeunes”, les facteurs aggravants semblant être la proportion de jeunes dans la population (baby booms) ou la différenciation culturelle (nouveaux hobbies et goûts).
Dans le cas d’une génération HA, la rupture serait d’un autre ordre de grandeur. Mais nous pourrions, au lieu de pleurer sur une humanité définie par ce qui nous distingue des HA (la vulnérabilité par exemple, comme M. Besnier nous le propose), nous contenter de voir dans cette aventure passionnante quelque chose de très beau allant au-delà de notre propre satisfaction individuelle ou générationnelle. Agir en parents, fiers d’avoir mis au monde des enfants fantastiques…
Notes
[1] L’auto-amélioration, par exemple, serait interdite. De la même manière qu’on empêche les automobilistes de rouler à 250 km/h alors que c’est techniquement possible, la société interdira de jouer avec la puissance de calcul.
[2] Puisque les HA, impliquant des connaissances sur le cerveau que nous ne maîtrisons pas tout à fait aujourd’hui, arriveraient probablement après l’IA dite forte, l’environnement global pourrait s’être notablement fermé, avec des traités anti-prolifération très stricts et un encadrement trop important de l’IA.
[3] Il est possible que la stratégie que nous adoptions (et que nous adoptons déjà peut-être) soit celle de la différenciation xénophobe ou spéciste : “oui, ils ont l’air de s’amuser, mais ils ne savent pas ce que c’est que le vrai bonheur” ou “bah, ils n’ont pas de conscience…”. Nous créerions des HA suffisamment différents de nous pour ne pas souffrir de se comparer à eux.
Tweeter