Longévité, IA, risques existentiels : dangers et opportunités (partie B)

Faire avancer la recherche en matière de longévité sera plus facile avec l’aide de l’intelligence artificielle. L’intelligence artificielle a sa part de risques, mais avoir pour but l’extension de la vie humaine la rendrait moins dangereuse

Publié le 26 janvier 2016, par dans « Risques »

Partie B : Que faire ?

 

> Lien vers la partie A de l’article <

 

 

 

 

4. Faire avancer la recherche en matière de longévité sera plus facile avec l’aide de l’intelligence artificielle

 

De nombreuses approches sont possibles lorsqu’il s’agit d’augmenter notre espérance de vie maximale. La recherche se focalise en général sur les domaines suivants :

  • Les médicaments
  • La chirurgie
  • Les cellules souches
  • Les thérapies géniques
  • La médecine régénérative
  • Les nanotechnologies

Les investissements prospectifs les plus importants en termes de temps, d’efforts et d’argent sont pour le moment centrés sur les approches menant à des produits (tels médicaments) et sur la compréhension et l’utilisation des informations génétiques. Cependant, même avec les médicaments les plus performants que la science actuelle a à fournir, une personne de l’âge de Jeanne Calment ne gagnerait probablement pas plus de quelques années de vie supplémentaires. Et les thérapies géniques font tout juste leurs débuts.

Sans l’appui que pourrait apporter l’intelligence artificielle, il est vraisemblable qu’il nous faille attendre encore plusieurs décennies avant qu’une percée technologique cruciale ne voie le jour. Ceci est tout particulièrement vrai en Europe et aux États-Unis, où la législation en matière d’expérimentation sur l’homme et sur l’animal rend bien plus difficile le fait de tester rapidement si de nouvelles thérapies fonctionnent aussi lorsque l’on sort de la théorie. Il s’agit de réaliser autant de travail de recherche que possible via l’utilisation de modèles informatiques fiables ou par des expériences in vitro.

 

5. L’intelligence artificielle a sa part de risques

 

Les spécialistes définissent en général le terme “intelligence artificielle (IA)” selon sa portée, en deux domaines qui ne sont pas nécessairement exclusifs : “l’intelligence artificielle faible” et “l’intelligence artificielle forte” ou encore “intelligence artificielle générale” (IAG). La première catégorie contient tout ce que l’on peut considérer comme des outils spécialisés, tel le logiciel pour faire fonctionner un véhicule sans chauffeur, un traducteur automatique ou un logiciel de reconnaissance d’images. La deuxième catégorie reprend tout système dont les facultés sont généralistes et au moins similaires à celles de l’homme dans leur diversité. Une intelligence artificielle généralisée pourrait dépasser les limites que même le génie humain ne peut atteindre, dans un domaine précis, ou même dans tous les domaines à la fois.

Le meilleur outil connu d’intelligence artificielle disponible à l’heure actuelle est un système informatique mis au point par IBM “WATSON”. Ce système ne peut être qualifié d’intelligence artificielle générale, même si ses capacités sont impressionnantes. Ce système est particulièrement doué pour ce qui est de répondre à des questions, d’abord de culture générale, mais aussi dans la recherche médicale.

Pour l’instant, le système médical est en phase “d’apprentissage”, assimilant des masses énormes d’informations concernant de nombreux patients séjournant en institution médicale. Cependant, ce projet semble plus se focaliser sur l’utilisation optimale de thérapies déjà existantes que sur le développement de nouvelles voies de recherche. En d’autres termes, il semble surtout promettre une amélioration de notre espérance de vie moyenne, mais pas maximale.

Mais d’autres pistes peuvent être développées (et le sont déjà partiellement) :

  • l’analyse systématique notamment sur des modèles informatiques simulant des fonctions organiques, des substances chimiques ou biologiques susceptibles d’avoir un impact important sur la longévité;
  • la recherche systématique des mutations génétiques d’espèces animales ou d’êtres humains permettant une vie (beaucoup) plus longue ainsi que l’accélération et l’automatisation des procédures de thérapies géniques;
  • le développement de thérapies dans les domaines des affections neuro-dégénératives, facilité par le développement de modèles informatiques des circuits neuronaux atteints;
  • pour le plus long terme, la réalisation de nanomédicaments et nanorobots.

Au cours de ces dernières années, et tout particulièrement en 2015, un nombre croissant de personnes ont fait publiquement part de leur préoccupation face aux conséquences dangereuses possibles du développement de l’Intelligence Artificielle. Bill Gates, Stephen Hawking et Elon Musk sont parmi ceux qui s’inquiètent des développements actuels qui, dans la pire des hypothèses, pourrait mettre fin à l’existence même de l’humanité (d’où l’utilisation du terme « risques existentiels »). Leurs opinions ont été renforcées par la lecture de l’ouvrage “Superintelligence: Paths, Dangers, Strategies” (Superintelligence : Voies de réalisation, Dangers, Stratégies) du philosophe Nick Bostrom. Ce dernier n’est pas seulement un expert de la question de l’intelligence artificielle, c’est aussi un des transhumanistes les plus connus du Royaume-Uni, qui a défendu la recherche radicale pour la longévité.

Il ne nous est pas possible de donner une vue complète de tous les risques associés à l’intelligence artificielle. Voici cependant quelques possibilités :

  • Utilisation de l’intelligence par des personnes ou groupements mal intentionnés. Le thème de la découverte majeure aux mains de personnes dangereuses est souvent abordé dans les récits de fiction (le savant fou, le dictateur qui préfère risquer de détruire le monde plutôt que de se rendre…). Ce n’est malheureusement pas à écarter des risques réellement envisageables.
  • Déclenchement d’une guerre par erreur : un système de contrôle complètement automatique, s’il avait existé dès les années 60, aurait presque certainement déclenché une guerre nucléaire totale.
  • Risques liés aux armes autonomes. Un danger pour ces armes est qu’il est possible de les pirater pour les retourner contre leurs propriétaires originaux. La parade habituelle est de rendre l’accès aux contrôles de ces armes aussi difficile que possible. Une telle arme pourrait devenir impossible à arrêter, même pour ses propriétaires originaux.
  • Conséquences inattendues des spécifications de base données par le programmeur humain : un exemple classique est celui de l’usine automatique qui a été programmée avec pour but de maximiser sa production. Une fois que l’usine a assez de moyens pour se fournir en matériaux à l’extérieur, tout peut devenir un “matériel” s’il est utilisable. Cela comprend tout ce qui est construit par l’homme. Cela pourrait même comprendre l’homme, qui est après tout composé de nombreux types d’atomes et de molécules organiques utilisables comme matériaux.
  • Conséquences dues aux buts et objectifs secondaires dérivés par l’IAG elle-même : par exemple, un but suffisamment mal spécifié par le programmateur, tel que “faire en sorte que l’humanité devienne plus heureuse” peut mener à des solutions inventives de la part de l’IAG. Plonger tout le monde dans un coma, ou au moins toute personne n’étant pas assez heureuse et étant donc susceptible de faire baisser le bonheur mondial moyen. L’idée ici est que même une fin qui semble à la base positive peut mener en cours de route à des moyens qui ne le sont pas.
  • Enfin, de manière proche de ce qui est souvent imaginé en science-fiction dystopique, l’intelligence artificielle pourrait estimer qu’il faut éliminer l’espèce humaine pour aboutir aux objectifs qu’elle se serait fixée. Par exemple, l’IA pourrait arriver à la conclusion, non prévue par ces créateurs, que l’espèce humaine est dangereuse ou néfaste pour le développement de l’intelligence dans l’univers.

Pour beaucoup de personnes, et ce y compris de nombreux transhumanistes, de telles possibilités ne semblent pouvoir être que de la science-fiction. Et pourtant, faut-il rappeler à quel point pour quelqu’un qui vivait il y a à peine vingt ans, le fait qu’un moteur de recherche comme Google ait souvent une très bonne idée de ce que vous allez taper comme mots de recherche dés les quelques premières lettres serait apparu comme de la véritable intelligence? Autrement dit, la science-fiction d’aujourd’hui peut être le futur assez proche.

 

6. Avoir pour but l’extension de la vie humaine rendrait l’intelligence artificielle moins dangereuse

 

Nous ne savons pas encore vraiment ce qu’est l’intelligence ou la conscience de soi. Toutefois le fait que nous ne comprenions pas quelque chose ne nous empêche pas de pouvoir le dupliquer ou même le créer de novo. La recherche scientifique est un processus qui se fait par essais et erreurs. Nous pourrons peut-être concevoir une intelligence artificielle sans comprendre entièrement ce que nous avons fait.

De nombreux transhumanistes, et plus généralement de nombreux spécialistes informatiques, sont convaincus que la probabilité est très élevée que nous développions une intelligence artificielle générale dans les cinquante prochaines années. La majorité d’entre eux sont d’avis que les risques liés à cet évènement sont élevés ou très élevés.

De nombreuses propositions existent pour modérer ces risques. En pratique ces idées peuvent être résumées en une seule phrase : Nous devons prendre le maximum de précautions de manière à nous assurer que toutes les conséquences des actions ou manques d’actions d’une intelligence artificielle ne puissent être nocives pour l’être humain en particulier et l’humanité en général. Ce qui signifie entre autres que nous devrions avoir pour objectif de :

  • créer des règles qui rendent impossibles les décisions néfastes
  • créer des règles pour rendre impossibles les actions intermédiaires néfastes, par exemple les mesures violentes que pourrait prendre l’IA pour subsister en vue de sa finalité
  • empêcher l’IA de faire quoi que ce soit qui n’ait pas été approuvé par un gardien humain
  • empêcher l’IA d’avoir la possibilité d’agir physiquement sur le monde externe (l’emprisonner en isolation dans une “cellule”)

Il serait trop long de développer ici ces aspects. Par ailleurs, comme nous l’avons déjà mentionné plus haut, nous sommes en train de discuter d’une intelligence artificielle dont les facultés dépassent de loin celles de l’être humain. Notre capacité à l’empêcher de faire ce qu’elle voudrait pourrait être aussi peu développée que celle qu’aurait une fourmilière à nous résister. De même, nous pourrions être tout aussi incapables de comprendre les raisons pour lesquelles une telle intelligence artificielle aurait pris ses décisions que les fourmis de ladite fourmilière seraient incapables de comprendre la volonté d’humains de vouloir aplanir un terrain vague pour y construire une route (avec la destruction de la fourmilière comme conséquence secondaire et peu importante).

Cependant, nous partageons un ancêtre commun avec lesdites fourmis. Nous obéissons à des règles communes, telles que “se reproduire”, “se nourrir”, “respirer”, “défendre nos proches”… Il y a de bonnes raisons de penser que si l’on crée une IA avec de bonnes bases, les risques seront moindres.

Ces risques seraient donc diminués si l’IA avait pour but de faire tout ce qu’elle peut pour que tout être humain de chair et de sang vive une vie aussi longue et en bonne santé que possible.

Pour utiliser une métaphore, certes imparfaite, nous sommes pour l’instant sur une luge au sommet d’une très haute montagne aux pentes abruptes. Une fois que nous nous serons élancés vers le bas, il ne nous sera plus possible de nous arrêter et peut-être même pas de diriger notre descente. Notre seule mesure de contrôle se trouve dans notre décision initiale de diriger la luge dans une direction plutôt qu’une autre.

Ceci est la raison pour laquelle je pense que la première des “trois lois de la robotique” telles que décrites par le physicien et auteur Isaac Asimov en 1942 :

“Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.”

se verrait améliorée en la modifiant comme suit :

“Une intelligence artificielle ne peut porter atteinte à un être humain et doit faire tout ce qu’elle peut pour améliorer la santé et la longévité de tous les êtres humains”

Focaliser autant que possible l’intelligence artificielle sur cette question aurait deux conséquences positives :

En cas de succès, les vies plus longues qui en découleraient seraient un facteur de bonheur individuel et d’évolution sociétale pacifique.

Que nous parvenions ou pas à résoudre la question du vieillissement, faire en sorte que l’IA ait pour but prioritaire le bien-être et la survie des femmes et des hommes ne peut que diminuer les risques que l’IA ne nous détruise ou nous lèse.

 

— Didier Coeurnelle

 

 

Restons en contact

Vice-président de l’AFT-Technoprog Je me définis comme un activiste du social essayant de promouvoir l’égalité et la solidarité à tous les niveaux notamment grâce aux progrès technologiques utiles qui nous permettent de vivre mieux, plus longtemps et d’échanger de plus en plus de connaissances. En savoir plus