Le robot est une personne comme les autres

Le robot est une personne comme les autres

Changer notre regard pour ne pas subir l’automatisation

L’idée qu’un robot puisse être considéré comme une «personne» peut sembler idiote. Mais elle a l’avantage de nous contraindre à considérer la machine qui parle et interagit avec nous comme un interlocuteur valable, à même de nous aider ou au contraire de nous nuire. Car il existe déjà des «personnes non humaines», animaux ou entreprises, qui ont parfois une vraie personnalité juridique. Tour d’horizon et petite réflexion, en une introduction et quatre points qui actualisent un article du dossier « Nouvelle robotique, nouveaux vivants » du numéro 58 de la revue Multitudes, paru en avril 2015.

Depuis le 13 mai 2014, il est le sixième membre du conseil d’administration de la société hongkongaise Deep knowledge ventures, ou DKV. Mais lui, à l’inverse de ses collègues à la tête de la bien nommée DKV, n’a pas besoin de porter cravate et costume de grand ponte. Il s’appelle Vital, acronyme signifiant Validating investment tool for advancing life sciences, ou en français : «Outil de validation pour les investissements dans la recherche scientifique». Soit une définition qui en dit beaucoup sur le sens de sa présence au sommet de cette entreprise de capital risque des secteurs de la lutte contre le cancer, la médecine régénérative et les traitements personnalisés.

Comment se retourner contre un algorithme qui se plante ?

Vital a donc de vraies responsabilités au sein de la société DKV. Mais peut-on pour autant considérer ce robot, pour peu qu’on le nomme ainsi comme l’ont fait la plupart des journalistes ayant chanté sa finesse d’analyse autant que sa puissance de calcul, comme une «personne» ? Et si oui quel serait son genre de personne ?

Vital n’a pas le physique de l’emploi : ce n’est même pas un robot sur pattes ou sur roues, mais juste un algorithme. Plus aucune décision d’investissement, néanmoins, n’est aujourd’hui prise par Deep knowledge ventures sans qu’il n’ait voix au chapitre. Car c’est un incorruptible. Sa promotion, son crédit au sein du pool de décideurs de Deep knowledge ventures, il les doit à sa neutralité. A la rigueur toute mathématique de ses avis sur les sociétés candidates à la manne financière. Mais cette absence de subjectivité n’est-elle pas un leurre ? Même autonome dans l’exercice quotidien de sa mission, une machine programmée par des humains peut-elle être considérée comme neutre ? Et infaillible ?

Car Vital pourrait se tromper et soutenir un investissement nuisible. Cet algorithme pourrait par exemple réussir un jour à convaincre les cinq autres membres de son conseil d’administration d’investir dans une startup se présentant de façon crédible comme spécialisée dans la lutte contre le vieillissement, mais dirigée en sous-main par une bande de djihadistes cherchant des fonds pour l’immortel Allah.

Vital pourrait-il être tenu pour responsable de l’erreur de casting ? Faudrait-il incriminer DKV dans son ensemble ? Ou plutôt ses prestataires et leurs sources d’information erronées ? Ou bien se retourner contre le concepteur de Vital, cette mécanique qu’on croyait pourtant si intelligente et qui aurait démontré son incapacité à déjouer le piège d’une bande de terroristes masqués ?

Un robot taxi ou vendeur peut-il être responsable de ses actes ?

Sous un autre regard, dès lors qu’il décide ou du moins qu’il juge d’une situation d’un point de vue autonome, le robot ne doit-elle pas être traité à l’égal d’une personne comme vous et moi ? Ou s’avérer du moins éthiquement et juridiquement responsable de ses actes ?

Car dans un avenir très proche, Vital pourrait être, non plus un algorithme de conseil, mais un robot taxi en conduite sans chauffeur grâce à ses capteurs. Le risque, dans ce cas de figure, serait celui d’un accident de circulation mettant en danger la vie de ses passagers. Le concept de voiture autonome a effet de fortes implications morales, en particulier dans le cas d’une tragédie inévitable sur quelque route de montagne entre des enfants à vélo et un camion fou, comme le démontre l’article d’Anders Sandberg et Heather Bradshaw-Martin dans le dossier « Nouvelle robotique, nouveaux vivants » de Multitudes – présentée le 5 mai 2015 dans une soirée au Cube à Issy-les-Moulineaux.

«Aiko Chihira, androïde et hôtesse d'accueil», petite vidéo du site du quotidien 20 minutes.

Vital a d’ailleurs depuis avril 2015 une grande sœur en kimono nommée Aiko Chihira, «humanoïde» créé par Toshiba qui sert de guide aux visiteurs d’un magasin Mitsukoshi à Tokyo. Mais dans un style plus grossier avec écran sur la poitrine, il y a aussi le OSHbot qui équipe en test les magasins de bricolage de la marque Lowe’s aux Etats-Unis. Une erreur de sa part serait déjà plus bien lourde de conséquence qu’un conseil mal avisé de la belle hôtesse d’accueil Aiko. Mais imaginez la multiplication de tels vendeurs de supermarchés, orientant les clients dans leur quête du produit qui dépanne, décape ou réjouit les papilles. N’y aurait-il pas un danger, même infime une nouvelle fois, d’une vis tordue, d’une lessive blanchissant le rose par mégarde, ou d’un saumon trop garni de mercure pour être un honnête poisson de la mer du Nord ? La possibilité de découvrir un jour un automate ultra sophistiqué sur le banc des accusés d’un tribunal n’est donc pas qu’une lubie d’amateur de science-fiction.

Dans cette étonnante vidéo de présentation du robot OSHbot, créé par le laboratoire d’innovation des magasins Lowe’s, son ingénieur résume tout de go son objectif : «Faire de la science-fiction une réalité».

Comme l’écrit l’anthropologue Emmanuel Grimaud dans Multitudes, si ces créatures que sont les robots «sont rarement confondues avec des êtres en chair et en os», elles ne sont pas moins intégrées dans des répertoires de «quasi-personnes» de plus en plus riches et gradués. Et ce constat semble tout aussi juste pour les robots au physique proches de l’animal ou de l’humain que pour ces puces parlantes ou simples algorithmes en relation purement virtuelle avec nous.

D’où notre voyage en quatre chapitres autour de la «personitude» de nos machines : en tant que travailleurs d’abord, puis en tant qu’interlocuteurs mais également élèves, c’est-à-dire mécaniques curieuses et apprenantes, avant de conclure sur la conviction que les robots doivent bel et bien être pris comme des personnes, mais d’une nature très spécifique, évidemment différente de nos personnes à nous, êtres humains.

 

Par Ariel Kyrou

Et pour aller plus loin

Commentaires