Robotique
Des chercheurs créent un robot qui affiche une empathie de base envers un partenaire robot

Une étude récente a réussi à doter un robot d’une forme rudimentaire d’empathie, lui permettant de prédire les objectifs et les actions de son partenaire robotique.
Une équipe d’ingénieurs de la School of Engineering and Applied Science de l’Université de Colombie a conçu un robot capable de prédire avec succès les actions et les objectifs d’un robot partenaire en fonction de quelques images d’une vidéo. Les ingénieurs affirment que le robot et son intelligence artificielle affichent une forme primitive d’empathie et que des recherches futures dans ce domaine pourraient aider à donner aux robots une « théorie de l’esprit ».
L’étude récente a été menée par le professeur Hod Lipson du Creative Machines Lab de Columbia Engineering. Les recherches menées par Lipson et son équipe ne constituent qu’une partie d’un effort académique plus large visant à permettre aux robots de comprendre et de prédire les objectifs d’autres robots, et potentiellement ceux des humains. Cette prédiction doit être effectuée entièrement par l’analyse des données collectées par des capteurs, principalement des données visuelles.
Robot observant un robot
L’équipe de chercheurs a construit un robot pour fonctionner dans un espace de jeu d’environ 6 pieds carrés. Le robot a été programmé pour rechercher des cercles verts et se déplacer vers ces cercles verts, mais tous les cercles verts à l’intérieur de l’espace de jeu n’étaient pas visibles pour le robot. Certains des cercles verts cibles étaient faciles à voir depuis la position de départ du robot, mais d’autres cercles étaient cachés derrière une grande boîte en carton.
Un second robot a été programmé pour observer le premier robot, le regardant pendant environ deux heures dans l’enclos. Après avoir observé son partenaire robot, le robot observateur a pu prédire à la fois l’objectif et les chemins de son partenaire dans la majorité des cas. Le robot observateur a pu prédire correctement le chemin emprunté par l’autre robot avec une précision de 98 %, même si le robot observateur ne connaissait pas l’incapacité du robot explorateur à voir derrière la boîte.
L’un des principaux auteurs de l’étude, Boyuan Chen, a expliqué via ScienceDaily que les résultats de l’étude démontrent la capacité des robots à interpréter le monde du point de vue d’un autre robot.
« La capacité de l’observateur à se mettre à la place de son partenaire, pour ainsi dire, et à comprendre, sans être guidé, si son partenaire pouvait ou non voir le cercle vert depuis son point de vue, est peut-être une forme primitive d’empathie », a expliqué Chen.
L’équipe de recherche s’attendait à ce que le robot observateur puisse prédire les actions à court terme du robot explorateur, mais ce qu’ils ont trouvé, c’est que le robot observateur n’était pas seulement capable de prédire les actions à court terme, mais qu’il pouvait également prédire avec précision les actions à long terme en fonction de quelques images d’une vidéo.
« Théorie de l’esprit »
Il est évident que les comportements exhibés par le robot explorateur sont plus simples que de nombreuses actions effectuées par les humains, et que prédire les objectifs et les comportements des humains est encore loin. Cependant, les chercheurs affirment que ce qui est commun entre la prédiction des actions d’un humain et celles d’un robot est l’emploi d’une « théorie de l’esprit ». Les recherches en psychologie suggèrent que les humains commencent à développer une théorie de l’esprit autour de l’âge de trois ans. Une théorie de l’esprit est nécessaire pour la coopération, l’empathie et la tromperie. L’équipe de recherche espère que des recherches plus approfondies sur la technologie qui sous-tend les interactions entre leurs robots aideront les scientifiques à développer des robots encore plus sophistiqués.
Comme mentionné, même si l’empathie est généralement considérée comme un trait positif qui permet la coopération, elle est également nécessaire pour des actions plus négatives comme la tromperie. Pour tromper quelqu’un avec succès, il faut comprendre ses désirs et ses intentions. Cela soulève certaines questions éthiques, car une fois que les robots peuvent potentiellement tromper les humains, qu’est-ce qui les empêche d’être utilisés par des acteurs malveillants pour manipuler et extorquer des personnes ?
Alors que le robot observateur a été formé exclusivement sur des données d’images, Lipson pense qu’en principe, un système prédictif similaire pourrait être conçu sur la base du langage humain, notant que les gens imaginent souvent des choses dans leur esprit, en pensant de manière visuelle.
Les efforts de l’équipe de recherche de Colombie font partie d’un effort plus large pour doter l’intelligence artificielle d’une théorie de l’esprit et de l’empathie. Euan Matthews, directeur de l’innovation et de l’IA chez Contact Engine, a récemment soutenu que pour que les IA deviennent plus empathiques, elles devront être capables de prendre en compte plusieurs intentions, et non une seule. Les humains ont souvent plusieurs intentions, parfois des désirs et des sentiments contradictoires à propos d’un sujet, et les IA devront devenir plus flexibles lorsqu’elles traitent de l’intentionnalité humaine.












