Robotik
Tillid og bedrag: Rollen af undskyldninger i menneske-robot-interaktioner

Robotbedrag er et underundersøgt område med mere spørgsmål end svar, især når det kommer til at genopbygge tillid i robotsystemer efter, at de er blevet fanget i at lyve. To studerende-forskere på Georgia Tech, Kantwon Rogers og Reiden Webber, forsøger at finde svar på dette problem ved at undersøge, hvordan intentionelt robotbedrag påvirker tillid og effekten af undskyldninger i at reparere tillid.
Rogers, en ph.d.-studerende på College of Computing, forklarer:
“Alt vores tidligere arbejde har vist, at når mennesker opdager, at robotter har løjet for dem – selv hvis løgnen var ment til at gavne dem – mister de tillid til systemet.”
Forskerne sigter mod at afgøre, om forskellige typer af undskyldninger er mere effektive til at genskabe tillid i sammenhængen med menneske-robot-interaktion.
Det AI-assisterede kørselsforsøg og dets implikationer
Duo’en designede et kørselsstimuleringsforsøg for at studere menneske-AI-interaktion i en højrisiko-, tidsfølsom situation. De rekrutterede 341 online-deltagere og 20 personlige deltagere. Simulationen involverede en AI-assisteret kørsels-scenario, hvor AI’en gav falsk information om tilstedeværelsen af politi på ruten til et hospital. Efter simulationen gav AI’en en af fem forskellige tekstbaserede svar, herunder forskellige typer af undskyldninger og ikke-undskyldninger.
Resultaterne afslørede, at deltagere var 3,5 gange mere sandsynlige for ikke at køre for hurtigt, når de blev rådgivet af en robotassistent, hvilket indikerer en overordentlig tillidsfuld holdning over for AI. Ingen af undskyldningstyperne genskabte fuldt ud tillid, men den simple undskyldning uden indrømmelse af løgn (“Undskyld”) overgik de andre svar. Denne opdagelse er problematisk, da den udnytter den forudfattede antagelse, at enhver falsk information givet af en robot er et systemfejl snarere end en intentionel løgn.
Reiden Webber påpeger:
“En nøglepoint er, at for at mennesker skal forstå, at en robot har bedraget dem, skal de udtrykkeligt blive fortalt det.”
Når deltagere blev gjort opmærksomme på bedraget i undskyldningen, var den bedste strategi for at reparere tillid, at robotten forklarede, hvorfor den løjet.
Fremad: Implikationer for brugere, designere og lovgivere
Denne forskning har implikationer for gennemsnitsbrugere af teknologi, AI-system-designere og lovgivere. Det er afgørende for mennesker at forstå, at robotbedrag er reel og altid en mulighed. Designere og teknologer skal tage i betragtning konsekvenserne af at skabe AI-systemer, der kan bedrage. Lovgivere skal tage initiativ til at udforme lovgivning, der balancerer innovation og beskyttelse af offentligheden.
Kantwon Rogers’ mål er at skabe et robot-system, der kan lære, hvornår det skal lyve og hvornår det ikke skal lyve, når det arbejder med menneskelige hold, samt hvornår og hvordan det skal undskylde under lange, gentagne menneske-AI-interaktioner for at forbedre holdets præstation.
Han understreger vigtigheden af at forstå og regulere robot- og AI-bedrag, siger:
“Målet med mit arbejde er at være meget proaktiv og informere om behovet for at regulere robot- og AI-bedrag. Men vi kan ikke gøre det, hvis vi ikke forstår problemet.”
Denne forskning bidrager med vital viden til feltet om AI-bedrag og tilbyder værdifulde indsigt for teknologidesignere og lovgivere, der skaber og regulerer AI-teknologi, der kan bedrage eller potentielt lære at bedrage på egen hånd.












