Connect with us

Confianza y engaño: El papel de las disculpas en las interacciones humano-robot

Robótica

Confianza y engaño: El papel de las disculpas en las interacciones humano-robot

mm

El engaño robot es un campo poco estudiado con más preguntas que respuestas, particularmente cuando se trata de reconstruir la confianza en los sistemas robóticos después de que han sido descubiertos mintiendo. Dos investigadores estudiantiles en Georgia Tech, Kantwon Rogers y Reiden Webber, están tratando de encontrar respuestas a este problema investigando cómo el engaño intencional del robot afecta la confianza y la efectividad de las disculpas para reparar la confianza.

Rogers, un estudiante de doctorado en la Facultad de Computación, explica:

“Todo nuestro trabajo anterior ha demostrado que cuando las personas descubren que los robots les mintieron, incluso si la mentira estaba destinada a beneficiarlos, pierden la confianza en el sistema.”

Los investigadores tienen como objetivo determinar si diferentes tipos de disculpas son más efectivos para restaurar la confianza en el contexto de la interacción humano-robot.

El experimento de conducción asistida por IA y sus implicaciones

El dúo diseñó un experimento de simulación de conducción para estudiar la interacción humano-IA en una situación de alto riesgo y sensible al tiempo. Reclutaron a 341 participantes en línea y 20 participantes en persona. La simulación involucraba un escenario de conducción asistida por IA donde la IA proporcionaba información falsa sobre la presencia de policía en la ruta a un hospital. Después de la simulación, la IA proporcionó una de cinco respuestas diferentes basadas en texto, incluyendo varios tipos de disculpas y no disculpas.

Los resultados revelaron que los participantes eran 3,5 veces más propensos a no exceder el límite de velocidad cuando se les aconsejaba por un asistente robótico, lo que indica una actitud de confianza excesiva hacia la IA. Ninguno de los tipos de disculpas restauró completamente la confianza, pero la disculpa simple sin admisión de mentira (“Lo siento”) superó a las otras respuestas. Este hallazgo es problemático, ya que explota la noción preconcebida de que cualquier información falsa proporcionada por un robot es un error del sistema en lugar de una mentira intencional.

Reiden Webber señala:

“Una de las conclusiones clave es que, para que las personas entiendan que un robot las ha engañado, deben ser informadas explícitamente.”

Cuando a los participantes se les hizo conscientes del engaño en la disculpa, la mejor estrategia para reparar la confianza era que el robot explicara por qué mintió.

Avanzar: Implicaciones para los usuarios, diseñadores y legisladores

Esta investigación tiene implicaciones para los usuarios promedio de tecnología, los diseñadores de sistemas de IA y los legisladores. Es crucial que las personas comprendan que el engaño robótico es real y siempre es una posibilidad. Los diseñadores y tecnólogos deben considerar las ramificaciones de crear sistemas de IA capaces de engaño. Los legisladores deben tomar la iniciativa en la creación de legislación que equilibre la innovación y la protección para el público.

El objetivo de Kantwon Rogers es crear un sistema robótico que pueda aprender cuándo mentir y cuándo no mentir cuando trabaja con equipos humanos, así como cuándo y cómo disculparse durante interacciones humano-IA a largo plazo y repetidas para mejorar el rendimiento del equipo.

Él enfatiza la importancia de comprender y regular el engaño robótico y de IA, diciendo:

“El objetivo de mi trabajo es ser muy proactivo e informar sobre la necesidad de regular el engaño robótico y de IA. Pero no podemos hacerlo si no entendemos el problema.”

Esta investigación contribuye conocimientos vitales al campo del engaño de IA y ofrece valiosas perspectivas para los diseñadores de tecnología y los legisladores que crean y regulan la tecnología de IA capaz de engaño o que potencialmente pueda aprender a engañar por sí misma.

Alex McFarland es un periodista y escritor de inteligencia artificial que explora los últimos desarrollos en inteligencia artificial. Ha colaborado con numerosas startups y publicaciones de inteligencia artificial en todo el mundo.