Moral Machines : Teaching Robots Right from Wrong : Notes de lecture

Note de lecture, critique et analyse du livre "Moral Machines : Teaching Robots Right from Wrong" de Wendell Wallach & Colin Allen.

Publié le 13 juin 2013, par

Analyse critique du livre Moral Machines: Teaching Robots Right from Wrong (de Wendell Wallach & Colin Allen). Notre avis sur le sujet de l’Intelligence Artificielle forte (conscience artificielle) et les problèmes qu’une telle IA peut poser. Vous pouvez trouver ce livre par exemple sur Amazon. (N.D.E.)

« Moral Machines » : une IA doit avoir une éthique

Qu’est-ce que le libre arbitre prôné par les religions, si ce n’est cette capacité de choisir entre le Bien et le Mal. La morale, l’éthique, les actions positives ou négatives sur autrui : tout ceci constitue des choix quotidiens que nous autres humains faisons depuis toujours, interaction positive ou néfaste pour autrui, sans toutefois en avoir systématiquement conscience. Qu’un système artificiel devienne suffisamment autonome et qu’il puisse agir « par lui-même » entraînera inévitablement un besoin d’implémentation d’une éthique. John W. Campbell et Isaac Asimov y réfléchissaient déjà lorsqu’ils conçurent les trois lois de la robotique dans les années 1940.

De la dystopie à la réalité

De plus, le mythe du Golem ayant fortement influencé la culture Occidentale, distillant la peur de l’intelligence artificielle inamicale telle qu’elle s’illustre par des séries de films tels que Terminator ou Matrix, une réflexion sur l’éthique à donner aux machines s’imposait. D’autant que leur autonomie grandissante rend urgent cette démarche, déjà : les drones s’imposent dans les armées de l’air. Des canons mitrailleurs autonomes sont déployés par la Corée du Sud à la frontière avec le Nord ou en Afghanistan par les forces américaines. Le Vice Premier Ministre russe Dmitry Rogozin a même reconnu le 17 mai 2013 que la Russie développait des robots autonomes censés être utilisés pour neutraliser les terroristes… Sans compter les applications civiles des voitures autonomes Google, des systèmes experts en sécurité, transport, médecine, finance, etc.

Eviter des dérives

Bref ! La révolution est en marche. Elle doit être cadrée afin d’éviter des dérives dangereuses hors de tout système éthique des machines futures fonctionnant indépendamment de tout pilotage humain. (Pour étoffer la réflexion à ce sujet, voir notamment notre page à propos des risques : N.D.E.).

C’est le but que se sont fixés ici Wendell Wallach (Consultant associé au centre de Bioéthique de l’université de Yale) et Colin Allen (Professeur de Science Cognitive, d’Histoire et de Philosophie des Sciences à l’Ecole des Arts et des Sciences de l’université de l’Indiana de Bloomington).

Conclusion

Initiant la réflexion, ils essaient de cerner toute l’ambiguïté qu’impose la réalité lorsqu’il s’agit de développer des référents éthiques. Se perdant parfois dans le propos ce livre, plus que de donner des solutions — les auteurs eux-mêmes reconnaissant ne pas encore les avoir, ces solutions — pose le problème. Il a le mérite de bien donner la mesure de l’ampleur et de l’importance de la tâche à venir et de lancer une réflexion stratégique voir essentielle : doter nos futures IA d’un sens moral afin qu’elles ne dénaturent pas nos sociétés ou ne se retournent pas contre nous. Une lecture essentielle pour anticiper la venue de véritables intelligences artificielles, et des questions que nous autres, sociétés modernes, devons garder à l’esprit pour éviter de subir le sort du docteur Frankenstein comme dans la réécriture du mythe du Golem par Mary Shelley : souffrir du fait de notre création et devoir la combattre.

Auteur

Cyril Gazengel