Robotik
Förtroende och bedrÀgeri: Apologiers roll i mÀnsklig-robotinteraktion

Robotbedrägeri är ett understuderat område med fler frågor än svar, särskilt när det gäller att återupprätta förtroende i robotiska system efter att de har ertappats med att ljuga. Två studentforskare vid Georgia Tech, Kantwon Rogers och Reiden Webber, försöker hitta svar på denna fråga genom att undersöka hur avsiktlig robotbedrägeri påverkar förtroende och effektiviteten av ursäkter för att reparera förtroende.
Rogers, en Ph.D.-student vid College of Computing, förklarar:
“All vår tidigare forskning har visat att när människor upptäcker att robotar har ljugit för dem – även om lögnen var avsedd att gynna dem – förlorar de förtroende för systemet.”
Forskarna syftar till att fastställa om olika typer av ursäkter är mer effektiva för att återupprätta förtroende i sammanhanget med mänsklig-robotinteraktion.
Experimentet med AI-assisterad körning och dess implikationer
Duon designade ett körningssimuleringsexperiment för att studera mänsklig-AI-interaktion i en högrisk-, tidskänslig situation. De rekryterade 341 online-deltagare och 20 personliga deltagare. Simuleringen involverade en AI-assisterad körningsscenarie där AI gav falsk information om närvaron av poliser på rutten till ett sjukhus. Efter simuleringen gav AI en av fem olika textbaserade svar, inklusive olika typer av ursäkter och icke-ursäkter.
Resultaten visade att deltagarna var 3,5 gånger mer benägna att inte köra för fort när de råddes av en robotassistent, vilket indikerar en alltför tillitsfull attityd gentemot AI. Inga av ursäktstyperna återupprättade fullständigt förtroendet, men den enkla ursäkten utan erkännande av lögn (“Jag är ledsen”) överträffade de andra svaren. Denna upptäckt är problematisk, eftersom den utnyttjar den förutfattade mening att all falsk information som ges av en robot är ett systemfel snarare än en avsiktlig lögn.
Reiden Webber påpekar:
“En viktig slutsats är att, för att människor ska förstå att en robot har bedragit dem, måste de uttryckligen informeras om det.”
När deltagarna informerades om bedrägeriet i ursäkten, var den bästa strategin för att reparera förtroendet att roboten förklarade varför den ljugit.
Att gå vidare: Implikationer för användare, designers och beslutsfattare
Denna forskning har implikationer för genomsnittliga teknik-användare, AI-systemdesigners och beslutsfattare. Det är viktigt för människor att förstå att robotbedrägeri är verkligt och alltid en möjlighet. Designers och teknologer måste överväga konsekvenserna av att skapa AI-system som kan bedra. Beslutsfattare bör ta ledningen i att skapa lagstiftning som balanserar innovation och skydd för allmänheten.
Kantwon Rogers mål är att skapa ett robot-system som kan lära sig när det ska ljuga och när det inte ska ljuga när det arbetar med mänskliga team, samt när och hur det ska be om ursäkt under långsiktiga, upprepade mänskliga-AI-interaktioner för att förbättra team-prestationen.
Han betonar vikten av att förstå och reglera robot- och AI-bedrägeri, och säger:
“Målet med min forskning är att vara proaktiv och informera om behovet av att reglera robot- och AI-bedrägeri. Men vi kan inte göra det om vi inte förstår problemet.”
Denna forskning bidrar med viktig kunskap till området AI-bedrägeri och erbjuder värdefulla insikter för teknik-designers och beslutsfattare som skapar och reglerar AI-teknik som kan bedra eller potentiellt lära sig att bedra på egen hand.












