Les trois lois de la robotique d’Asimov
J’ai abordé ce thème dans une discussion à propos d’un conte de Karel Capek que j’ai découvert parce que je connaissais cet auteur par ses romans de sciences fiction, littérature que j’aime bien et qui occupait beaucoup de mon temps à une certaine époque.
Le conte, L’aiguille, Karel Čapek, fait partie d’un livre « Contes d’une poche et d’une autre poche ».
.-. LES TROIS LOIS DE LA ROBOTIQUE
• Première Loi
Un robot ne peut nuire à un être humain ni laisser sans assistance un être humain en danger.
• Deuxième Loi
Un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf quand ces ordres sont incompatibles avec la Première Loi.
• Troisième Loi
Un robot doit protéger sa propre existence tant que cette protection n’est pas incompatible avec la Première ou la Deuxième Loi.
Manuel de la Robotique
58e édition (2058 après J.- C.) »
Extrait de : Isaac, Asimov. « Les robots. »
CYCLE FERME deuxième nouvelle du livre.
Dans la pratique une infinité de cas placent le robot dans une situation où il est impossible d’agir sans enfreindre l’une de ces trois lois.
Dès 1950, Asimov pointa les limites, en particulier concernant la première loi qui protège l’humain en tant qu’individu et non en tant qu’espèce. En effet, il serait préférable en toute logique de sacrifier un individu* si cela pouvait permettre de sauver un groupe plus important, sinon l’humanité tout entière. En 1985 il ajouta aux trois lois une loi zéro qui plaçait l’intérêt de l’humanité au-dessus de celui d’un seul individu :
• loi zéro : un robot ne peut nuire à l’humanité ni laisser sans assistance l’humanité en danger.
* Accident de voiture autonome:
Les freins de la voiture autonome lâchent. La collision est inévitable. L’ordinateur de bord doit-il éviter en priorité un groupe d’écoliers ou de personnes âgées ? Percuter une femme avec une poussette ou foncer dans le mur au risque de tuer les quatre passagers ?
J’ai lu quelque part que, dans l’accident ayant entraîné la mort d’un piéton, l’I.A. a fait le choix de renverser le piéton plutôt que risquer la vie des 4 passagers. C’était un choix logique sauf que c’est faux, c’était un mauvais réglage sur le freinage.
https://www.franceinter.fr/societe/la-voiture-autonome-decidera-t-elle-qui-tuer-en-cas-d-accident
.-. LES NOUVELLES LOIS DE LA ROBOTIQUE
Créées par l’écrivain Roger MacBride Allen dans la trilogie de Caliban afin de corriger les défauts des Trois Lois, dans le but de rendre les humains moins dépendants des robots, notamment avec l’ajout d’une quatrième loi.
• Nouvelle Première Loi : Un robot ne peut porter atteinte à un être humain.
• Nouvelle Deuxième Loi : Un robot doit coopérer avec les êtres humains, sauf si une telle coopération est en contradiction avec la Première Loi.
• Nouvelle Troisième Loi : Un robot doit protéger son existence, si cette protection n’est pas en contradiction avec la Première ou la Deuxième Loi.
• Nouvelle Quatrième Loi : Un robot peut agir à sa guise, hormis si ses actions sont en contradiction avec la Première, la Deuxième ou la Troisième Loi.
.-. La Quatrième Loi de la robotique (« The Fourth Law of Robotics ») est une nouvelle de science-fiction d’Harry Harrison.
Résumé
Une banque a été attaquée par un robot. Le robot s’est présenté à la banque, muni d’une grenade, expliquant en détail au caissier son fonctionnement. En partant, il a laissé exploser l’engin, qui n’était qu’une réplique sans danger. Le robot n’a donc pas violé la première loi de la robotique (aucun humain n’a été blessé), ni la deuxième (obéissance aux humains), ni la troisième (il ne s’est pas mis en danger).
https://www.futura-sciences.com/tech/dossiers/robotique-trois-lois-robotique-1836/page/2/