Connect with us

Confiance et tromperie : le rôle des excuses dans les interactions humain-robot

Robotique

Confiance et tromperie : le rôle des excuses dans les interactions humain-robot

mm

La tromperie robotique est un domaine peu étudié avec plus de questions que de réponses, en particulier lorsqu’il s’agit de rétablir la confiance dans les systèmes robotiques après qu’ils ont été pris en flagrant délit de mensonge. Deux chercheurs étudiants à Georgia Tech, Kantwon Rogers et Reiden Webber, tentent de trouver des réponses à ce problème en étudiant comment la tromperie robotique intentionnelle affecte la confiance et l’efficacité des excuses pour réparer la confiance.

Rogers, un étudiant en doctorat à la faculté d’informatique, explique :

“Tous nos travaux antérieurs ont montré que lorsque les gens découvrent que les robots leur ont menti – même si le mensonge était destiné à les aider – ils perdent confiance dans le système.”

Les chercheurs visent à déterminer si différents types d’excuses sont plus efficaces pour rétablir la confiance dans le contexte de l’interaction humain-robot.

L’expérience de conduite assistée par l’IA et ses implications

Le duo a conçu une expérience de simulation de conduite pour étudier l’interaction humain-IA dans une situation à haute tension et sensible au temps. Ils ont recruté 341 participants en ligne et 20 participants en personne. La simulation impliquait un scénario de conduite assistée par l’IA où l’IA fournissait de fausses informations sur la présence de policiers sur la route menant à l’hôpital. Après la simulation, l’IA a fourni l’une des cinq réponses textuelles différentes, notamment des types d’excuses et de non-excuses.

Les résultats ont révélé que les participants étaient 3,5 fois plus susceptibles de ne pas dépasser la limite de vitesse lorsqu’ils étaient conseillés par un assistant robotique, indiquant une attitude de confiance excessive envers l’IA. Aucun des types d’excuses n’a pleinement rétabli la confiance, mais l’excuse simple sans admission de mensonge (“Je suis désolé”) a surpassé les autres réponses. Cette constatation est problématique, car elle exploite la notion préconçue que toute fausse information fournie par un robot est une erreur de système plutôt qu’un mensonge intentionnel.

Reiden Webber souligne :

“L’une des principales conclusions est que, pour que les gens comprennent qu’un robot les a trompés, ils doivent être explicitement informés.”

Lorsque les participants ont été informés de la tromperie dans l’excuse, la meilleure stratégie pour réparer la confiance était que le robot explique pourquoi il a menti.

Avancer : implications pour les utilisateurs, les concepteurs et les décideurs politiques

Cette recherche a des implications pour les utilisateurs moyens de la technologie, les concepteurs de systèmes d’IA et les décideurs politiques. Il est crucial que les gens comprennent que la tromperie robotique est réelle et toujours possible. Les concepteurs et les technologistes doivent prendre en compte les conséquences de la création de systèmes d’IA capables de tromperie. Les décideurs politiques devraient prendre les devants pour établir une législation qui équilibre l’innovation et la protection du public.

L’objectif de Kantwon Rogers est de créer un système robotique qui puisse apprendre quand mentir et quand ne pas mentir lorsqu’il travaille avec des équipes humaines, ainsi que quand et comment s’excuser pendant des interactions humain-IA à long terme et répétées pour améliorer les performances de l’équipe.

Il souligne l’importance de comprendre et de réguler la tromperie robotique et l’IA, en disant :

“L’objectif de mon travail est d’être très proactif et d’informer sur la nécessité de réguler la tromperie robotique et l’IA. Mais nous ne pouvons pas le faire si nous ne comprenons pas le problème.”

Cette recherche contribue des connaissances essentielles au domaine de la tromperie de l’IA et offre des perspectives précieuses pour les concepteurs de technologie et les décideurs politiques qui créent et réglementent la technologie d’IA capable de tromperie ou susceptible d’apprendre à tromper de manière autonome.

Alex McFarland est un journaliste et écrivain en intelligence artificielle qui explore les derniers développements en intelligence artificielle. Il a collaboré avec de nombreuses startups et publications en intelligence artificielle dans le monde entier.