Transhumanisme et IA : Vers la prospérité ou l’extinction
Cet article explore les multiples visions transhumanistes sur l’IA : promesse d’émancipation pour certains, menace existentielle pour d’autres. Entre enthousiasme, prudence et controverses, un éclairage sur ceux qui pensent le futur.
Publié le 21 mars 2025, par dans « Risques • transhumanisme »
1. Les transhumanistes, des technophiles béats ?
Le 30 novembre 2022 a marqué une rupture. C’est à cette date qu’OpenAI a dévoilé ChatGPT. Depuis, l’intelligence artificielle a connu une couverture médiatique sans précédent, suscitant autant d’enthousiasme que d’inquiétude. Pourtant, bien avant que le grand public ne s’y intéresse, une communauté y voyait déjà un enjeu majeur : les transhumanistes.
Depuis des décennies, les penseurs transhumanistes perçoivent l’intelligence artificielle comme un élément clé de l’avenir humain, et ce n’est pas un hasard. Leur fascination pour l’IA repose sur trois raisons principales :
- D’abord, son potentiel à transcender les limites biologiques. En accélérant le progrès technologique dans tous les domaines, elle pourrait révolutionner notre condition.
- Ensuite, les profondes interrogations philosophiques qu’elle soulève : comment redéfinir notre place face à des machines conscientes ? Serons-nous capables de transférer notre esprit dans un support numérique ?
- Enfin, les menaces qu’elle représente pour l’humanité. De la désinformation massive aux cyberattaques mondiales en passant par l’aggravation des inégalités, les dangers sont nombreux et bien réels.
Le troisième point pourrait en surprendre plus d’un. Après tout, les transhumanistes ne sont-ils pas des technophiles rêveurs qui croient que tout progrès technique est intrinsèquement bon ?
En réalité, de nombreux transhumanistes, en particulier les technoprogressistes, sont parfaitement conscients des dangers liés aux technologies qu’ils défendent. Pour eux, exploiter pleinement le potentiel du transhumanisme exige avant tout d’identifier et d’anticiper les risques afin de mieux les maîtriser.
Lorsqu’il s’agit d’intelligence artificielle, ces risques ne sont pas seulement considérables, ils sont existentiels. Depuis plusieurs années, des experts de premier plan alertent sur la menace qu’une IA surhumaine non contrôlée pourrait représenter, allant jusqu’à envisager l’extinction de l’humanité. Face à un tel scénario, quelle est donc la position des transhumanistes ?
2. La diversité des opinions transhumanistes sur l’IA
Le moins qu’on puisse dire, c’est qu’il n’y a pas de consensus. D’un côté, certains estiment qu’il n’y a aucune raison de s’inquiéter, tandis que d’autres appellent à une pause immédiate dans son développement sous peine d’extinction. Pour mieux comprendre ce paysage contrasté, on peut distinguer plusieurs grandes catégories de pensée.
Les premiers estiment que les risques existentiels liés à l’IA sont faibles ou inexistants et qu’elle apportera d’importants bénéfices. C’est la position de Ben Goertzel, pionnier du concept d’intelligence artificielle générale et président de Humanity+, la plus grande association transhumaniste. De façon générale, cette minimisation des risques s’explique souvent par une méconnaissance ou un rejet du domaine scientifique de la sécurité de l’IA, où les chercheurs estiment en moyenne à 30 % la probabilité que l’IA provoque l’extinction humaine.
La deuxième catégorie reconnaît que les risques existentiels sont élevés, mais estime qu’ils valent la peine d’être pris. Dario Amodei, PDG d’Anthropic, évalue ainsi à 25 % la probabilité d’une extinction humaine due à l’IA dans les cinq prochaines années. Pourtant, il juge ce pari justifié par les bénéfices potentiels. Il considère que l’IA pourrait aboutir à « un siècle de découvertes en une décennie », entraînant extension de l’espérance de vie, liberté morphologique, neuro-amélioration, et autres avancées transhumanistes. Il est convaincu que le développement d’une IA surhumaine est inévitable, il préfère donc que son entreprise en soit à l’origine plutôt que de laisser cette avancée aux mains d’acteurs moins éthiques.
La troisième position, plus radicale, estime que la succession de l’humanité par les machines s’inscrit dans l’ordre naturel des choses. Si une espèce plus intelligente émerge, il est logique qu’elle prenne le contrôle de la civilisation. Isaac Asimov partageait cette idée, tout comme Larry Page, cofondateur de Google, qui a même accusé Elon Musk de « spécisme » pour privilégier l’humanité au détriment des futures intelligences numériques. Cette vision repose souvent sur l’hypothèse que les IA finiront par devenir conscientes. Or, si cette hypothèse se révélait fausse, nous pourrions nous retrouver dans univers où chaque ressenti serait remplacé par des circuits électriques et des fonctions de maximisation. Nick Bostrom avertit sur le risque de créer un monde regorgeant de merveilles technologiques, mais sans personne pour en profiter, un « Disneyland sans enfants ».
La quatrième catégorie prône une course effrénée au progrès technologique. Les adeptes de l’« accélérationnisme efficace » visent à maximiser la consommation d’énergie et à propulser l’humanité sur l’échelle de Kardachev. Ce courant s’inspire de l’accélérationnisme de Nick Land, qui prônait une transformation radicale de la société en poussant le progrès technologique à son paroxysme afin de conduire le capitalisme à « sa conclusion naturelle ». Convaincus que la technologie résoudra les problèmes de l’humanité, ils s’opposent frontalement aux approches axées sur la sûreté de l’IA. Leur figure la plus influente est Marc Andreessen, auteur du Manifeste Techno-Optimiste. Toutefois, leur mouvement, né sur Twitter à travers des mèmes et des provocations, est si confus qu’il est difficile de le prendre au sérieux.
Enfin, la cinquième catégorie regroupe ceux qui plaident pour un ralentissement, voire une suspension du développement des IA avancées, afin d’éviter une catastrophe existentielle. Parmi eux, Nick Bostrom, cofondateur de l’Association Transhumaniste Mondiale, s’est distingué en publiant dès 2002 un texte fondateur sur les risques existentiels, après avoir introduit la notion de superintelligence en 1997 aux côtés de Hans Moravec dans des revues transhumanistes. De son côté, Eliezer Yudkowsky, figure majeure de la sécurité de l’IA, s’engageait dès 1999, à seulement 20 ans, dans la mailing-list SL4, un espace dédié aux discussions avancées sur le transhumanisme. Tous deux montrent que transhumanisme et prudence face à l’IA ne sont pas incompatibles.
3. Les liens entre transhumanisme et sécurité de l’IA
L’essence du transhumanisme est de s’intéresser à l’avenir de l’humanité : quel destin souhaitons-nous pour notre espèce ? Devons-nous améliorer nos capacités cognitives ? Explorer l’espace ? Les possibilités sont vastes. Toutefois, ces ambitions perdraient tout leur sens si l’humanité venait à disparaître. C’est cette prise de conscience qui a poussé certains transhumanistes à se concentrer sur l’étude des risques existentiels, notamment ceux liés à l’intelligence artificielle. Voilà qui explique pourquoi ce sont principalement des penseurs issus du transhumanisme qui ont initié et popularisé la sécurité de l’IA.
En plus, il semble évident qu’une psychologie commune lie les deux domaines. Accepter les conclusions de la sécurité de l’IA implique de se projeter à long terme, de reconnaître le potentiel transformateur des technologies, d’accepter des raisonnements logiques même lorsqu’ils défient l’intuition et d’envisager sérieusement des scénarios perçus comme relevant de la science-fiction. Ces dispositions sont les mêmes que celles qu’il faut pour accepter les idées transhumanistes. S’intéresser à l’avenir et aux avancées technologiques sous un prisme particulier conduit presque inévitablement à explorer l’autre.
On pense souvent que les gens travaillant dans la sécurité de l’IA sont des pessimistes ayant une peur viscérale de la technologie, mais cette idée est fausse. La sécurité de l’IA a, au contraire, été développée par des technophiles qui souhaitaient créer des IA très intelligentes tout en évitant les immenses risques qui y sont associés. Personne ne qualifierait un ingénieur en génie civil d’« anti-pont » sous prétexte qu’il veille à la solidité de ses constructions. De la même manière, les experts en sécurité de l’IA ne sont pas « anti-IA » et encore moins « anti-tech », ils souhaitent simplement que l’on développe des systèmes sûrs, qui ne mèneront pas à l’extinction de l’humanité.
Les détracteurs du transhumanisme et de la sécurité de l’IA ont eux aussi remarqué la proximité entre les deux domaines. C’est ainsi que la chercheuse en informatique Timnit Gebru et le philosophe Émile Torres ont créé l’acronyme TESCREAL, englobant le transhumanisme, l’extropianisme, le singularitarisme, le cosmisme, le rationalisme, l’altruisme efficace et le long-termisme. Selon eux, ces idéologies sont interconnectées, se recoupent et partagent des origines communes.
Si cette analyse n’est pas totalement infondée, elle mérite toutefois d’être nuancée. En effet, inclure dans un même ensemble des figures aussi opposées qu’Eliezer Yudkowsky et Marc Andreessen soulève des questions sur la pertinence de cette classification. En réalité, ce type de regroupement permet de rassembler sous une même étiquette des courants de pensée très divers afin de formuler des critiques générales, sans s’attarder sur la complexité des arguments de chacun. Autrement dit, à caricaturer.
Il est donc important de noter que, bien que la sécurité de l’IA ait émergé sous l’influence de penseurs transhumanistes, elle s’est depuis largement diversifiée. Il est probable que la majorité des experts en sécurité de l’IA ne soient plus transhumanistes aujourd’hui. Par ailleurs, comme nous l’avons vu, les opinions transhumanistes sur les risques existentiels de l’IA sont très variées. Il serait faux de penser que l’ensemble du mouvement partage ces préoccupations.
4. S’améliorer pour faire face à l’IA ?
On distingue trois grandes tendances transhumanistes qui considèrent que l’amélioration des capacités cognitives humaines sera nécessaire pour faire face à l’intelligence artificielle.
La première, défendue par des figures comme Laurent Alexandre, prône l’augmentation des capacités humaines afin de rester compétitif sur le marché du travail. Mais cette stratégie est vouée à l’échec. L’IA ne dort pas, ne mange pas, ne fait pas de pauses, réfléchit cinquante fois plus vite que nous et peut se dupliquer instantanément : la guerre est perdue d’avance. Au-delà d’être irréaliste, cette approche est également indésirable. Elle s’inscrit dans une logique ultra-capitaliste où le travail est une nécessité absolue. Pourtant, nous pourrions voir la disparition de l’emploi comme une bonne chose, libérant l’humanité du labeur. Lorsqu’on a inventé le tracteur, on n’a pas cherché à équiper les humains d’immenses roues pour rivaliser avec lui, on a réorganisé la société pour ne plus être contraint de travailler quatorze heures par jour dans les champs. Pourquoi ne pas appliquer la même logique avec l’IA ?
La deuxième approche vise à fusionner l’humain avec l’IA pour éviter son obsolescence. C’est notamment l’objectif d’Elon Musk avec Neuralink, qui développe des implants cérébraux. Mais cette idée se heurte à un problème de temporalité : l’IA surpassera probablement les humains bien avant que ces puces ne deviennent monnaie courante. Et même si elles arrivaient à temps, elles ne régleraient rien. Comment un implant cérébral pourrait-il nous préserver d’une IA surhumaine décidée à nous anéantir ? Au contraire, cela pourrait aggraver les risques : se faire implanter un dispositif que l’IA pourrait pirater à sa guise ne semble pas être la meilleure des stratégies.
Il est également important de souligner que ces deux premières approches vont à l’encontre d’un principe central du transhumanisme technoprogressiste : la liberté de choix. Nous refusons l’idée d’une société où ceux qui ne cherchent pas à s’améliorer se retrouvent marginalisés ou dépassés. Chaque individu doit pouvoir décider librement s’il souhaite ou non optimiser ses capacités cognitives, en fonction de ses propres préférences. Les technoprogressistes ne souhaitent pas imposer le transhumanisme à tout le monde, mais ouvrir l’horizon des possibles.
La troisième approche, défendue par Eliezer Yudkowsky, consiste à rendre l’humain plus intelligent pour qu’il puisse sécuriser l’IA avant qu’elle ne devienne incontrôlable. Pour eux, c’est un défi technique et philosophique si grand que l’intelligence humaine « de base » pourrait être insuffisante pour le relever. Là encore, la temporalité pose problème : l’IA surpassera sans doute l’humanité bien avant que l’on puisse produire une génération génétiquement améliorée ou que des implants cérébraux révolutionnaires soient disponibles. Eliezer Yudkowsky, conscient du problème, évoque la possibilité d’utiliser CRISPR pour des thérapies génétiques sur adultes afin d’augmenter leur intelligence, mais lui-même reconnaît que cette option est peu probable.
En fin de compte, notre objectif ne devrait pas être d’augmenter l’humain pour rivaliser avec l’IA, mais de concevoir une intelligence artificielle qui respecte nos valeurs. Il s’agit là, sans doute, du plus grand enjeu de l’histoire de l’humanité.