Le robot est une personne comme les autres

Changer notre regard pour ne pas subir l’automatisation

4. Le robot est une personne pas comme les autres

Samedi 1er novembre 2014, 17 heures au centre des congrès de Nantes, où se tiennent les Utopiales, festival international de science-fiction. Sur la scène centrale, deux scientifiques et trois auteurs de science-fiction s’apprêtent à débattre d’un thème d’autant plus surprenant qu’il est placé sous le patronage de l’Inserm, Institut national de la santé et de la recherche médicale : «Intelligence artificielle et citoyenneté : vers l’égalité des droits ?».

Faut-il donner un statut moral et juridique au robot ?

Ugo Bellagamba, écrivain familier des utopies ou uchronies et délégué artistique des Utopiales, attaque mollo, sur le mode de l’expérience de pensée prospective. Comme l’indique le programme du festival : «Faisons l’hypothèse que les ordinateurs pensants existent et partagent notre quotidien, qu’en sera-t-il de nos modèles juridiques en présence d’intelligences artificielles supérieures ?». Et Jean-Gabriel Ganascia, éminent spécialiste ès intelligences artificielles, de répondre à cette drôle de question :

Mais les IA existent déjà ! Et elles transforment profondément notre monde. Le Web, c’est de l’IA.

Les frontières entre machines et êtres vivants s’estompent. Ne faut-il pas en conséquence revoir dès aujourd’hui la notion même de citoyenneté ? Quoi qu’il en soit, continue le scientifique, il y a nécessité à «donner un statut moral au robot». Pourquoi, par exemple, ne pas lui accorder un statut proche de celui qu’avaient les esclaves sous la Rome antique ? Car après tout, surenchérit l’autre scientifique sur l’estrade, Claude Delpuech, les robots vont très bientôt nous poser beaucoup de gros problèmes juridiques ; comment, par exemple, «appliquer les Conventions de Genève aux robots tueurs» ?

Paradoxe : les deux chercheurs rivalisent d’audace sur l’hypothétique citoyenneté du robot, et ce sont les deux auteurs de science-fiction américains qui tempèrent leur enthousiasme. K.W. Jeter, père d’une suite littéraire au Blade Runner de Philip K. Dick, s’interroge sur ce que pourrait signifier la notion de valeur pour une machine intelligente. Son compère et ex cyberpunk Walter Jon Williams quant à lui s’amuse :

Je vois mal un robot ou un programme informatique, même super évolué, comprendre la subtilité du respect de la loi sur un territoire.

Surtout, aurais-je envie d’ajouter, si le robot s’avise de fumer un joint de cannabis dans un Etat qui le tolère vaguement sur le mode thérapeutique, puis dans d’autres aux Etats-Unis, plus strictes ou en pleine cogitation sur le sujet…

Les machines ont de la personnalité

Retour à notre point de départ, et à Vital, algorithme et néanmoins membre du conseil d’administration de la société DKV : une IA peut-elle être considérée comme une personne ? Et les descendants de Nao, Pepper et Roméo pourraient-ils devenir des êtres singuliers ? Pour y arriver, encore faudrait-il qu’ils se construisent chacun une personnalité, donc aussi une histoire différentes.

Or dans les labos, la tendance serait justement non plus seulement à la personnalisation mais à la personnification des robots. Autrement dit : à chacun son caractère selon sa fonction, son environnement et ses interlocuteurs. Google a d’ailleurs déposé le 31 mars 2015 un brevet baptisé «Procédés et systèmes pour le développement de la personnalité de robots». Ce document fort sérieux précise que plusieurs personnalités seront accessibles pour téléchargement dans le corps du robot domestique. Son propriétaire pourra ainsi choisir lui-même une personnalité pour que son robot soit pour lui le plus agréable possible à fréquenter.

Hubert Guillaud livre moult exemples savoureux de «personnification» de machines dans un article publié dans Internet Actu à l’automne 2014. Une même machine sera ainsi extravertie dans la peau d’une infirmière ou intravertie dans le rôle d’un gardien de sécurité. Question cruciale parmi d’autres que se posent les chercheurs : quelle devra être la personnalité d’une voiture autonome ? Plutôt agressive pour ne pas céder trop aisément le passage aux autres véhicules, voire «capable de dépasser les limitations de vitesse imposées pour s’ajuster aux flux du trafic», répondent les as de chez Google… Quant aux aspirateurs autonomes de type Roomba, pas de doute selon Bernt Meerbeek, chercheur chez Philips : leurs propriétaires attendent d’eux qu’ils soient routiniers, «calmes, polis et coopératifs».

Bref, de bons esclaves. Mais un esclave, surtout s’il est doté d’une personnalité, peut se rebeller, à l’instar des robots de R.U.R., la pièce d’il y a un siècle de Karel Capek. N’est-ce pas un argument pour lui accorder un statut juridique ?

Le robot est une «personne non humaine» comme les autres

Sous un autre regard, dans son article «Les robots oscillent entre vivant et inerte» du numéro 58 de la revue Multitudes, Emmanuel Grimaud écrit : «On trouve pléthores d’entités (minérales, animales ou végétales) qui sont conçues comme des personnes et qui ne sont pas des humains, dans les cultures les plus variées», ce qui a conduit l’anthropologue brésilien Eduardo Viveiros de Castro à affirmer : «Le concept de personne est logiquement antérieur à celui d’humain».

Par ailleurs, Sandra, une femelle, ou peut-être faudrait-il dire une femme orang-outan de 28 ans, a été en décembre 2014 le premier animal à être reconnu comme une personne par un tribunal. La Cour d’appel de New York a en effet statué que Sandra était «une personne non humaine» ayant été privée à tort de sa liberté par le zoo de Buenos Aire où elle vit.

Alors pourquoi un robot intelligent, même si insensible, ne pourrait-il pas devenir lui aussi une «personne non humaine» d’ici la fin du siècle ? La question, d’ailleurs, ne date pas de l’intéressante série suédoise Real Humans sur Arte, dont l’une des clés tient à cet enjeu des droits des Hubots : dès le printemps 1988, la Whole Earth review californienne, creuset de ce que Fred Turner appelle «l’utopie numérique», titrait en une sur «Les droits des robots», à partir d’un article de deux juristes – légèrement futurologues – de Hawaii les jugeant à terme inévitables («The Rights of Robots», par Phil McNally et Sohail Inayatullah, Whole Earth Review n°59, printemps 1988, pages 2 à 10).

Pour une charte des droits et devoirs des robots

Tout autant technologue mais moins hippie que le Whole Earth, l’avocat parisien Alain Bensoussan ne dit pas autre chose aujourd’hui lorsqu’il se fait le héraut d’un «droit des robots, entre le droit des biens et des personnes» :

Nous pourrions, par exemple, utiliser les numéros de sécurité sociale. Aujourd’hui, en France, lorsque ce numéro débute par un “1”, il s’agit d’un homme, s’il commence par “2”, c’est une femme. L’idée, c’est d’utiliser le “3” pour les robots.

Et pourquoi donc ? Les machines intelligentes seraient-ils des citoyens comme les autres ? A même d’obtenir le droit de vote un jour prochain malgré leur prévisible difficulté à interpréter les lois ? Non, du moins pas tout de suite : « Cette prise en compte est essentielle pour la responsabilité, le but étant de pouvoir identifier et mettre en cause la responsabilité des robots. Il faut pouvoir disposer de recours contre les robots, et pour cela, il est nécessaire qu’ils aient une personnalité juridique permettant de mettre en jeu une responsabilité quelconque, celles du robot, du fabricant, du fournisseur, de l’utilisateur, du propriétaire. Il s’agit d’un système de responsabilité en cascade.»

«Il faut créer un droit des robots» : telle était la conviction de l’avocat Alain Bensoussan, interviewé à l’antenne de France Info en juillet 2014.

Plus cabot qu’un Aïbo, maître Alain Bensoussan aime provoquer. Lorsqu’il affirme, à France Info, qu’il est aujourd’hui indispensable de doter nos machines intelligentes d’une personnalité morale, il jubile. Et quand il écrit lui-même «une charte des robots intégrant le statut juridique des robots, avec les devoirs mais aussi avec des droits comme le droit au respect du robot, le droit à la dignité et à l’identification», il prend juste un temps d’avance sur la Corée du Sud qui réfléchit à un tel document et sur la Commission européenne qui travaille sur cette question éthique et juridique.

Un aspirateur Roomba se suicide : paix ait son âme !

Ah si seulement Monsieur Gernot Hackl avait eu l’idée de prendre maître Bensoussan comme avocat dans le procès qu’il a intenté fin 2013 à la société iRobot en Autriche !

Gernot avait en effet laissé son cher Roomba 760 seul sur le plan de travail de sa cuisine, histoire qu’il œuvre à sa mission de nettoyage comme chaque jour après le déjeuner familial. Las ! D’après son propriétaire, cité par le magazine en ligne Gizmodo, le robot «se serait rallumé tout seul, se serait dirigé vers les plaques chauffantes de la cuisine (installées dans la continuité du plan de travail) pour pousser une casserole laissée sur le feu et prendre sa place». Résultat : « le Roomba a pris feu, dégageant une épaisse fumée noire dans la maison. Les pompiers ont même du intervenir pour contenir l’incendie et découvrir que le courageux petit robot nettoyeur s’était transformé en un tas de cendres.»


La photo non créditée de l’aspirateur Roomba, mort en héros dans sa cuisine selon l’histoire racontée dans de nombreux sites de par le monde, et en particulier dans un article de Gizmodo justement titré «Triste nouvelle, un robot Roomba a mis fin à ses jours».

Gernot aurait-il commis une erreur de programmation ? La faute serait-elle imputable aux concepteurs ou développeurs de l’entreprise iRobot ? A moins que ce digne robot, déprimé après un repas désastreux et une cuisine en état apocalyptique, ait de lui-même décidé de mettre fin à ses jours ?

Ne sous-estimons pas les robots… et leurs effets sur nos humeurs, notre santé et nos façons de vivre. Aux dernières nouvelles, le procès n’avait toujours pas eu lieu.

 

Et pour aller plus loin

 

Commentaires