Robotique
Confiance et tromperie : le rĂ´le des excuses dans les interactions homme-robot

La tromperie des robots est un domaine sous-étudié avec plus de questions que de réponses, en particulier lorsqu'il s'agit de rétablir la confiance dans les systèmes robotiques après qu'ils ont été surpris en train de mentir. Deux étudiants chercheurs de Georgia Tech, Kantwon Rogers et Reiden Webber, tentent de trouver des réponses à ce problème en étudiant comment la tromperie intentionnelle des robots affecte la confiance et l'efficacité des excuses pour rétablir la confiance.
Rogers, un doctorat. étudiant au College of Computing, explique :
"Tous nos travaux antérieurs ont montré que lorsque les gens découvrent que des robots leur ont menti - même si le mensonge était destiné à leur profiter - ils perdent confiance dans le système."
Les chercheurs visent à déterminer si différents types d'excuses sont plus efficaces pour restaurer la confiance dans le contexte de l'interaction homme-robot.
L'expérience de conduite assistée par l'IA et ses implications
Le duo a conçu une expérience de simulation de conduite pour étudier l'interaction homme-IA dans une situation à enjeux élevés et sensible au facteur temps. Ils ont recruté 341 participants en ligne et 20 participants en personne. La simulation impliquait un scénario de conduite assistée par l'IA où l'IA fournissait de fausses informations sur la présence de la police sur la route vers un hôpital. Après la simulation, l'IA a fourni l'une des cinq réponses textuelles différentes, y compris divers types d'excuses et de non-excuses.
Construction résultats Une étude a révélé que les participants étaient 3.5 fois plus susceptibles de ne pas accélérer lorsqu'ils étaient conseillés par un assistant robotique, ce qui témoigne d'une confiance excessive envers l'IA. Aucune des excuses présentées n'a totalement rétabli la confiance, mais la simple excuse sans aveu de mensonge (« Je suis désolé ») a surpassé les autres réponses. Ce résultat est problématique, car il exploite l'idée reçue selon laquelle toute fausse information fournie par un robot est une erreur système plutôt qu'un mensonge intentionnel.
Reiden Webber souligne :
"L'un des principaux points à retenir est que, pour que les gens comprennent qu'un robot les a trompés, il faut le leur dire explicitement."
Lorsque les participants ont été mis au courant de la tromperie dans les excuses, la meilleure stratégie pour rétablir la confiance était que le robot explique pourquoi il avait menti.
Aller de l'avant : implications pour les utilisateurs, les concepteurs et les décideurs
Cette recherche a des implications pour les utilisateurs moyens de technologie, les concepteurs de systèmes d'IA et les décideurs. Il est crucial que les gens comprennent que la tromperie robotique est réelle et toujours possible. Les concepteurs et les technologues doivent tenir compte des ramifications de la création de systèmes d'IA capables de tromperie. Les décideurs politiques devraient prendre l'initiative d'élaborer une législation qui équilibre l'innovation et la protection du public.
L'objectif de Kantwon Rogers est de créer un système robotique capable d'apprendre quand mentir et quand ne pas mentir lorsqu'il travaille avec des équipes humaines, ainsi que quand et comment s'excuser lors d'interactions répétées et à long terme entre l'homme et l'IA pour améliorer les performances de l'équipe.
Il souligne l'importance de comprendre et de réglementer la tromperie des robots et de l'IA, en disant :
« Mon objectif est d'être très proactif et de sensibiliser à la nécessité de réglementer la tromperie liée aux robots et à l'IA. Mais nous ne pouvons y parvenir si nous ne comprenons pas le problème. »
Cette recherche apporte des connaissances vitales dans le domaine de la tromperie de l'IA et offre des informations précieuses aux concepteurs de technologies et aux décideurs qui créent et réglementent une technologie d'IA capable de tromper ou potentiellement d'apprendre à tromper par elle-même.












