Connect with us

Robotikk

Tillit og bedrageri: Rollen til unnskyldninger i menneske-robot interaksjoner

mm

Robotbedrageri er et understudert felt med flere spørsmål enn svar, særlig når det gjelder å gjenopbygge tillit i robotiske systemer etter at de har blitt tatt i å lyve. To studentforskere ved Georgia Tech, Kantwon Rogers og Reiden Webber, prøver å finne svar på dette problemet ved å undersøke hvordan medvitende robotbedrageri påvirker tillit og effektiviteten av unnskyldninger i å reparere tillit.

Rogers, en ph.d.-student ved College of Computing, forklarer:

“All vår tidligere arbeid har vist at når mennesker finner ut at roboter har lurt dem – selv om løgnen var ment å være til deres fordel – mister de tillit til systemet.”

Forskerne har som mål å bestemme om forskjellige typer unnskyldninger er mer effektive i å gjenopbygge tillit i sammenheng med menneske-robot interaksjon.

Det AI-baserte kjøresimuleringseksperimentet og dets implikasjoner

Duoen designet et kjøresimuleringseksperiment for å studere menneske-AI-interaksjon i en høyrisikosituasjon. De rekrutterte 341 deltakere online og 20 deltakere på stedet. Simuleringen involverte en AI-basert kjøresituasjon der AI-en ga feil informasjon om nærvær av politi på ruten til et sykehus. Etter simuleringen ga AI-en en av fem forskjellige tekstbaserte responser, inkludert forskjellige typer unnskyldninger og ikke-unnskyldninger.

Resultatene viste at deltakerne var 3,5 ganger mer sannsynlig å ikke overskride hastighetsgrensen når de ble rådet av en robotassistent, noe som indikerer en overdriven tillitsfull holdning til AI. Ingen av unnskyldningstypene gjenopbygde fullstendig tillit, men den enkle unnskyldningen uten innrømmelse av å ha lurt (“Unnskyld”) overgikk de andre responsene. Dette funn er problematisk, da det utnytter den forhåndsbestemte forestillingen om at all feil informasjon gitt av en robot er et systemfeil snarere enn en medvitende løgn.

Reiden Webber påpeker:

“En viktig lærepunkt er at, for at mennesker skal forstå at en robot har lurt dem, må de uttrykkelig bli fortalt det.”

Når deltakerne ble gjort oppmerksom på bedrageriet i unnskyldningen, var den beste strategien for å reparere tillit at roboten forklarte hvorfor den lurt.

Fremover: Implikasjoner for brukere, designere og politikere

Dette forskningsarbeidet har implikasjoner for gjennomsnittlige teknologibrukere, AI-systemdesignere og politikere. Det er viktig at mennesker forstår at robotbedrageri er reelt og alltid en mulighet. Designere og teknologer må vurdere konsekvensene av å lage AI-systemer som kan lyve. Politikere bør ta ledelsen i å utforme lovgivning som balanserer innovasjon og beskyttelse for allmennheten.

Kantwon Rogers’ mål er å skape et robotisk system som kan lære når å lyve og når ikke å lyve når det samarbeider med menneskelige team, samt når og hvordan å unnskyldde under lange, gjentakende menneske-AI-interaksjoner for å forbedre teamytelsen.

Han understreker viktigheten av å forstå og regulere robot- og AI-bedrageri, og sier:

“Målet med mitt arbeid er å være proaktiv og informere om behovet for å regulere robot- og AI-bedrageri. Men vi kan ikke gjøre det hvis vi ikke forstår problemet.”

Dette forskningsarbeidet bidrar med viktig kunnskap til feltet AI-bedrageri og tilbyr verdifulle innsikter for teknologidesignere og politikere som lager og regulerer AI-teknologi som kan lyve eller potensielt lære å lyve på egen hånd.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.