Des lois de la robotique

Par Djianne / 9 janvier 2016

Alors que les recherches ne cessent de tendre vers une démocratisation de la robotique dans le quotidien, à l’inverse d’un usage jusqu’alors principalement industriel ou médical, les scientifiques savent qu’un jour ou l’autre se posera la question du statut de ces robots au sein de notre société, et plus précisément celle du statut des Intelligences Artificielles (I.A.) qui « habiteront » les robots du futur. En effet, à moins que vous ne discutiez avec votre robot aspirateur autonome, c’est bien le problème de l’évolution de l’I.A. qui va se poser, plus que celle de la robotique elle-même qui va plutôt faire office de réceptacle.

Si les scientifiques sont donc de plus en plus nombreux à se poser cette question en terme d’éthique principalement (les robots auront-ils des droits ? quid des rapports sexuels avec un robot ? leur avenir militaire ?...), aucun n’a vraiment de raisonnement ordonné ou logique et il nous faut aller creuser du côté de la littérature de science fiction, extrêmement riche dans le domaine de l’anticipation pour trouver un schéma ordonné.

Les Lois d’Asimov

Les amateurs se réfèrent plus ou moins à l’idée émise il y a de cela pas mal d’années par Isaac Asimov aidé de John W. Campbell, que les robots se devaient d’obéir à des lois universelles afin que leur cohabitation avec les humains soit possible.
On parle aujourd’hui des “Lois de la Robotique” ou “Lois d’Asimov”.

C’est au travers de ses nombreux romans qu’Asimov a peaufiné sa table de lois jusqu’à obtenir en 1985 avec la publication de Les Robots et l’Empire, les lois que nous connaissons aujourd’hui :

  • Loi Zéro : Un robot ne peut pas porter atteinte à l’humanité, ni, par son inaction, permettre que l’humanité soit exposée au danger.
  • Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
  • Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
  • Troisième Loi : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

Afin de remettre les choses dans leur contexte, pour en arriver à la nécessité de se poser de telles questions éthiques, morales et sécuritaires, encore faudra t-il attendre que l’intelligence artificielle atteignent un niveau qui lui permette de comprendre ne serait-ce que la notion d’humanité au sens universel du terme.
Au final une I.A. ne considérera « humain » que ce qu’on lui désigne comme “humain”. Les mots n’ont que le sens que nous leur donnons et configurer cette seule définition sera déjà à mon sens un sacré challenge.

L’auteur a donc lui-même et à de nombreuses reprises au travers de ses romans, démontré les limites de ses propres lois, par le simple fait que pour lui une I.A. ne pourra correctement les appliquer qu’en ayant connaissance des subtilités de l’esprit humain et du fait que tout n’y est pas noir ou blanc, bon ou mauvais, ou encore comprendre des notions illogiques telles que le sacrifice, la punition ou encore l’humour.

A noter également que la loi zéro est à double tranchant puisque dans l’absolu elle donne le droit aux robots de s’attaquer à des humains si ils jugent l’humanité en danger du fait de ceux-ci.

Ce que l’on peut relever d’intéressant dans ces quatre lois de base, c’est que l’I.A. n’a que des devoirs et pas de droits, alors même que dans la majorité de ses romans Asimov mettait en scène des robots qui allaient tester (souvent inconsciemment) les limites de ces lois à mesure que leur intelligence se faisait plus sophistiquée et complexe.

Il nous faut ici comprendre que ces lois sont pour leur auteur implicites à la création de n’importe quel outil :

  • Un outil doit pouvoir être employé de manière sûre.
  • Un outil doit accomplir sa fonction efficacement sauf si cela peut blesser l’utilisateur.
  • Un outil doit rester intact durant son utilisation, sauf si sa destruction est requise pour son utilisation ou sa sécurité.

Pour Asimov les robots sont une création humaine, un outil au service de l’homme avec ce que cela implique en terme de fonctionnalité et de sécurité. Excédé par ce « complexe de Frankenstein » qui voulait que nos créations se retournent systématiquement contre nous, Asimov a semble t’il voulu rappeler au travers de ces lois qu’il appartenait aux hommes de maîtriser les robots comme ils pouvaient le faire de leurs autres outils. La grande question d’une intelligence artificielle dépassant sa propre condition nous renvoyant finalement à une question existentielle universelle : qu’est ce qu’être humain ?

Les robots seraient-ils une quête de notre propre identité ?

Nous sommes à ce jour encore loin d’un robot au libre arbitre ou bénéficiant d’une quelconque “intelligence” exploitable, mais encore bien au stade d’outils.
Certes, chaque jour l’actualité nous démontre les progrès des intelligences artificielles qui sont développées via des robots qui peuvent apprendre d’un humain ou d’un autre robot, ou encore décrypter certaines émotions humaines, notamment grâce à la reconnaissance faciale, afin de pouvoir répondre à certaines attentes liées à leur fonction. Mais il ne faut pas oublier que reconnaître une émotion n’est pas la ressentir ni en connaître les subtilités.

Pourtant, l’imaginaire collectif, sans doute encore affecté par ce « complexe de Frankenstein » tant décrié par Asimov, s’interroge déjà sur la place que devront occuper ces robots intelligents dans notre vie : devront-ils avoir un statut particulier ? des droits et des devoirs ? une responsabilité pénale ? le droit de vote ? Quid d’une utilisation militaire ou sexuelle ?

Un robot soldat sera t’il plus cruel ou dangereux qu’un soldat humain ?
Les relations sexuelles avec des robots sont-elles plus contre nature qu’avec une poupée gonflable ou un godemichet ?
Un robot doit-il être pénalement/légalement responsable d’un dommage causé dans le cadre de la fonction que l’homme lui aura attribué ?
Un robot doit-il avoir le droit de défendre son existence ?

Toutes ces questions que nous pouvons nous poser ne nous renvoient-elles pas finalement à notre propre humanité et à nos faiblesses ?
Les robots : une création humaine à notre image qui aura la lourde tâche de nous remplacer sans avoir le droit de commettre nos erreurs.
La notion de bien et de mal n’est-elle pas trop humaine et changeante pour pouvoir un jour devenir l’apanage des robots, qui ne seront finalement que le produit de nos choix et de nos valeurs…

Djianne

Rédactrice en chef de BrainRoster et présidente de BrainToaster. Particularités : grande maîtrise de la caféine en intraveineuse, -12 en diplomatie, pond environ 10 idées banco à la minute.

Vos réactions