Accueil > transhumanisme > Notes de lecture : Moral Machines: Teaching Robots Right from Wrong

Notes de lecture : Moral Machines: Teaching Robots Right from Wrong

Moral Machines: Teaching Robots Right from Wrong Wendell Wallach & Colin Allen   Qu’est-ce que le libre arbitre prôné par les religions, si ce n’est cette capacité de choisir entre le Bien et le Mal. La morale, l’éthique, les actions positives ou négatives sur autrui : tout ceci constitue des choix quotidiens que nous autres... [lire la suite]

Publié le 13 juin 2013, par | Suivez-nous sur les réseaux sociaux :

Moral Machines: Teaching Robots Right from Wrong

Wendell Wallach & Colin Allen

 

Qu’est-ce que le libre arbitre prôné par les religions, si ce n’est cette capacité de choisir entre le Bien et le Mal. La morale, l’éthique, les actions positives ou négatives sur autrui : tout ceci constitue des choix quotidiens que nous autres humains faisons depuis toujours, interaction positive ou néfaste pour autrui, sans toutefois en avoir systématiquement conscience. Qu’un système artificiel devienne suffisamment autonome et qu’il puisse agir « par lui-même » entraînera inévitablement un besoin d’implémentation d’une éthique. John W. Campbell et Isaac Asimov y réfléchissaient déjà lorsqu’ils conçurent les trois lois de la robotique dans les années 1940.

 

De plus, le mythe du Golem ayant fortement influencé la culture Occidentale, distillant la peur de l’intelligence artificielle inamicale telle qu’elle s’illustre par des séries de films tels que Terminator ou Matrix, une réflexion sur l’éthique à donner aux machines s’imposait. D’autant que leur autonomie grandissante rend urgent cette démarche, déjà : les drones s’imposent dans les armées de l’air ; des canons mitrailleurs autonomes sont déployés par la Corée du Sud à la frontière avec le Nord ou en Afghanistan par les forces américaines ; et le Vice Premier Ministre russe Dmitry Rogozin a même reconnu le 17 mai 2013 que la Russie développait des robots autonomes censés  être utilisés pour neutraliser les terroristes… sans compter les applications civiles des voitures autonomes Google, des systèmes experts en sécurité, transport, médecine, finance, etc.

 

Bref ! La révolution est en marche et nécessite d’être cadrée afin d’éviter des dérives  dangereuses hors de tout système éthique des machines futures fonctionnant indépendamment de tout pilotage humain.

 

C’est le but que se sont fixés ici Wendell Wallach (Consultant associé au centre de Bioéthique de l’université de Yale) et Colin Allen (Professeur de Science Cognitive, d’Histoire et de Philosophie des Sciences à l’Ecole des Arts et des Sciences de l’université de l’Indiana de Bloomington).

 

Initiant la réflexion, ils essaient de cerner toute l’ambiguïté qu’impose la réalité lorsqu’il s’agit de développer des référents éthiques. Se perdant parfois dans le propos ce livre, plus que de donner des solutions — les auteurs eux-mêmes reconnaissant ne pas encore les avoir, ces solutions — pose le problème. Il a le mérite de bien donner la mesure de l’ampleur et de l’importance de la tâche à venir et de lancer une réflexion stratégique voir essentielle : doter nos futures IA d’un sens moral afin qu’elles ne dénaturent pas nos sociétés ou ne se retournent pas contre nous. Une lecture essentielle pour anticiper la venue de véritables intelligences artificielles, et des questions que nous autres, sociétés modernes, devons garder à l’esprit pour éviter de subir le sort du docteur Frankenstein comme dans la réécriture du mythe du Golem par Mary Shelley : souffrir du fait de notre création et devoir la combattre.

 

Cyril Gazengel

Adhérer ?

Laisser un commentaire


Abonnez-vous à notre newsletter