La confuse problématique de l’éthique liée à l’Intelligence Artificielle

L’idée que des machines sachent reproduire des gestes humains et puissent finalement nous assister ou nous remplacer dans des rôles plus ou moins compliqués divisent les Hommes depuis des décennies. René Descartes (1596-1650) et Thomas Hobbes (1588-1679), deux grands philosophes du siècle des Lumières, se demandaient déjà comment résoudre ce problème. Selon Descartes, la pensée est propre à l’Homme et une machine serait capable de reproduire certains caractères de l’être humain mais certainement pas tous. Hobbes, quant à lui, est plus catégorique sur le sujet. Il affirme que la pensée humaine n’est qu’un énorme calcul et qu’il est possible de la simplifier en une formule mathématique. Dès lors, d’autres chercheurs se sont penchés sur cette même question mais les opinions de ceux-ci restent sensiblement proches de nos deux philosophes.

Mais comment définir l’éthique en robotique ?

Il est important de définir ce qu’est réellement l’éthique avant de l’appliquer à notre problème. Actuellement, l’éthique désigne une discipline philosophique qui définit les valeurs de l’existence, sur les notions de « bien » et de « juste » ou sur des questions de morale. L’éthique est aussi souvent définie comme une recherche des comportements idéaux à mettre en place pour rendre le monde humainement habitable et agréable.

Les mots liés à l'éthique
Étique – source: https://www.translatemedia.com/translation-blog/impact-cultural-values-marketing-ethics/

 

Cette notion d’éthique a rapidement été mise en avant lors de l’apparition de la robotique, il y a une dizaine d’années. Cette discipline a très rapidement trouvé sa place dans la société et comporte déjà des centres de recherches dédiés ainsi que des rassemblements et conventions spécialement créer pour parler de problématiques liées à ce domaine. Toutes ces personnes tentent de trouver, de façonner et de créer des règles éthiques qui permettront aux robots de se fondre dans notre monde. L’auteur de référence dans le domaine est Isaac Asimov, un auteur de livres de science-fiction.

Il est le fondateur de l’idée d’avoir un monde ou robots et humains coexisteraient sans problème. Pour réduire la peur des êtres humains de voir leurs propres créations se rebeller et prendre le pouvoir, il a imaginé trois lois qui seraient implantées dans chaque robot et qui seraient incontournables :

  • « Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger. »
  • « Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entre en conflit avec la première loi. »
  • « Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. »

En partant de cette idée, Armen Khatchatourov, philosophe à Telecom Ecole de Management a créé un mouvement visant à régulariser ces lois : l’éthique by design. Ce mouvement consiste à intégrer la prise en compte des aspects éthiques dès l’étape de la conception d’un algorithme ou d’une machine intelligente au sens large.

 

Éthique by design vs Privacy by design

Armen Khatchatourov utilise le concept de Privacy by design, déjà largement utilisé autour du globe, pour illustrer ces propos. Au même titre que l’éthique, ce domaine se pose la question de la manière dont nous nous comportons avec nos semblables. Le principal problème du Privacy by design est qu’il prend aujourd’hui l’aspect d’un texte et qu’il est donc difficile de parler d’éthique et de philosophie sur le sujet. Il prend comme exemple le Règlement Général sur la Protection des Données (RGPD) pour appuyer d’avantages ses propos. D’après lui, le plus gros problème d’une telle loi réside dans la déresponsabilisation des acteurs.

D’un côté, les ingénieurs et les designers risquent de se contenter d’être en accord avec le texte sans se poser de questions sur les problématiques éthiques de leurs produits / services et de l’autre côté les consommateurs utilisent ces produits / services sans réfléchir à leurs actions car ils font confiance aveuglement à cette réglementation.

Esprit critique
Esprit critique – source: http://congo-objectif2050.over-blog.com/2016/04/l-esprit humain-comment-developperson-esprit-critique.html

Derrière cette banalisation, le risque est de perdre tout esprit critique. Selon lui :

« Mais si on résume l’éthique à un problème de logique, c’est plus que problématique ! Pour un drone militaire par exemple, cela voudrait dire définir un seuil de nombre de morts civils à partir duquel la décision de tir est acceptable ? Est-ce souhaitable ? Il n’y a pas d’ontologie de l’éthique, et il ne faut pas se laisser emmener sur ce terrain-là ! »

L’utilisation de robots « intelligents » lors de conflits armés

L’utilisation d’intelligence artificielles était autrefois considérée comme de la science-fiction. Actuellement, c’est devenu une banalité voire une obligation pour les pays en guerre. Ces robots avaient d’abord un but de préservation de la vie humaine. Il était envoyés à la place des humains pour préserver leur vie. Aujourd’hui, leur but a bien changé et ils visent à faire le plus de dégâts au moindre coût. Ces machines ont démontré leur efficacité dans les dernières guerres et les personnes qui doivent affronter ces robots soulèvent un problème : une guerre ou un camp utilise des robots automatisés est déloyale et il doit être interdit d’utiliser de telles machines pour faire la guerre.

En effet, actuellement, les robots permettant de faire la guerre existent bel et bien mais ne sont en aucun cas totalement automatisés. S’ils l’étaient, les problèmes suivants se poseraient :

  • Qui est responsable lors d’un problème avec le robot ?
  • Le robot, possédant une intelligence artificielle lui permettant de se débrouiller tout seul, doit-il avoir un statut social équivalant au nôtre ?
  • A-t-on le droit d’exploiter des robots semblables en tout point à l’être humain ?

A-t-on le droit d’exploiter des robots semblables en tout point à l’être humain ?

Bibliographie

IMT, 2016. Intelligence artificielle : la complexe question de l’éthique. [en ligne]. 15 septembre 2016. [Consulté le 9 décembre 2018]. Disponible à l’adresse : https://blogrecherche.wp.imt.fr/2016/09/15/intelligence-artificielle-ethique/

L’IA et l’éthique, [sans date]. [en ligne]. [Consulté le 9 décembre 2018]. Disponible à l’adresse : http://intelligence-artificielle-tpe.e-monsite.com/pages/les-dangers-lies-a-l-ia/l-ia-et-l-ethique.html

Trois lois de la robotique, 2018. Wikipédia [en ligne]. [Consulté le 9 décembre 2018]. Disponible à l’adresse : https://fr.wikipedia.org/w/index.php?title=Trois_lois_de_la_robotique&oldid=153781166Les Trois
lois de la robotique, formulées par l’écrivain de science-fiction Isaac Asimov, sont des règles auxquelles tous les robots positroniques qui apparaissent dans ses romans doivent obéir. Page Version ID: 153781166

Carnet d'IdéeS - blog du Master IS

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *