Suivez nous sur

Une étude suggère que les robots sont plus persuasifs lorsqu'ils prétendent être humains

Robotique

Une étude suggère que les robots sont plus persuasifs lorsqu'ils prétendent être humains

mm

Les progrès de l'intelligence artificielle ont créé des robots et des machines qui peuvent potentiellement passer pour des humains s'ils interagissent avec des personnes exclusivement via un support numérique. Récemment, une équipe de chercheurs en informatique a étudié comment les robots/machines et les humains interagissent lorsque les humains croient que les robots sont aussi humains. Tel que rapporté par ScienceDaily, les résultats de l'étude ont révélé que les gens trouvent les robots/chatbots plus persuasifs lorsqu'ils pensent que les robots sont humains.

Talal Rahwan, professeur agrégé d'informatique à NYU Abu Dhabi, a récemment mené une étude qui a examiné comment les robots et les humains interagissent les uns avec les autres. Les résultats de l'expérience ont été publiés dans Intelligence artificielle de la nature dans un rapport intitulé Transparency-Efficiency Tradeoff in Human-Machine Cooperation. Au cours de l'étude, les sujets de test ont été invités à jouer à un jeu coopératif avec un partenaire, et le partenaire peut être un humain ou un bot.

Le jeu était une variante du dilemme classique du prisonnier, où les participants devaient décider de coopérer ou non ou de trahir l'autre à chaque tour. Dans le dilemme d'un prisonnier, une partie peut choisir de faire défection et de trahir son partenaire pour obtenir un avantage au détriment de l'autre joueur, et ce n'est qu'en coopérant que les deux parties peuvent s'assurer un gain.

Les chercheurs ont manipulé leurs sujets de test en leur fournissant des informations correctes ou incorrectes sur l'identité de leur partenaire. On a dit à certains des participants qu'ils jouaient avec un bot, même si leur partenaire était en fait un humain. D'autres participants étaient dans la situation inverse. Au cours de l'expérience, l'équipe de recherche a pu quantifier si les gens traitaient leurs partenaires différemment lorsqu'on leur disait que leurs partenaires étaient des bots. Les chercheurs ont suivi le degré d'existence de préjugés contre les bots et l'impact de ces attitudes sur les interactions avec les bots qui se sont identifiés.

Les résultats de l'expérience ont démontré que les bots étaient plus efficaces pour engendrer la coopération de leurs partenaires lorsque l'humain croyait que le bot était aussi un humain. Cependant, lorsqu'il a été révélé que le bot était un bot, les niveaux de coopération ont chuté. Rahwan a expliqué que si de nombreux scientifiques et éthiciens conviennent que l'IA devrait être transparente quant à la façon dont les décisions sont prises, il est moins clair qu'elle devrait également être transparente quant à sa nature lorsqu'elle communique avec les autres.

L'année dernière, Google Duplex a fait sensation lorsqu'une démonstration sur scène a montré qu'il était capable de passer des appels téléphoniques et de prendre des rendez-vous au nom de son utilisation, générant un discours humain si sophistiqué que beaucoup de gens l'auraient confondu avec une personne réelle s'ils l'avaient fait. pas été dit qu'ils parlaient à un bot. Depuis les débuts de Google Duplex, de nombreux éthiciens de l'IA et des robots ont exprimé leurs inquiétudes concernant la technologie, incitant Google à dire qu'elle demanderait à l'agent de s'identifier en tant que bot à l'avenir. Actuellement, Google Duplex n'est utilisé que dans une capacité très limitée. Ce sera bientôt voir utilisation en Nouvelle-Zélande, mais uniquement pour vérifier les heures d'ouverture des commerces. Les éthiciens s'inquiètent toujours de la mesure dans laquelle la technologie pourrait être utilisée à mauvais escient.

Rahawan se dispute que l'étude récente démontre que nous devrions considérer les coûts que nous sommes prêts à payer en échange de la transparence :

Est-il éthique de développer un tel système ? Devrions-nous interdire aux robots de se faire passer pour des humains et les obliger à être transparents sur leur identité ? Si la réponse est oui, nos conclusions soulignent la nécessité de fixer des normes quant au coût d'efficacité que nous sommes prêts à payer en échange d'une telle transparence.