Connect with us

Důvěra a klam: Role omluv v interakcích mezi lidmi a roboty

Robotika

Důvěra a klam: Role omluv v interakcích mezi lidmi a roboty

mm

Robotický klam je málo prozkoumané téma s více otázkami než odpověďmi, zejména když jde o znovuzískání důvěry v robotických systémech poté, co byly odhaleny lži. Dva studentští výzkumníci na Georgia Tech, Kantwon Rogers a Reiden Webber, se snaží najít odpovědi na tuto otázku zkoumáním, jak úmyslný robotický klam ovlivňuje důvěru a účinnost omluv při obnově důvěry.

Rogers, doktorand na College of Computing, vysvětluje:

“Všechna naše předchozí práce ukázala, že když lidé zjistí, že roboti jim lžou – i když lži byly určeny k jejich prospěchu – ztrácí důvěru v systém.”

Výzkumníci se snaží určit, zda různé typy omluv jsou účinnější při obnově důvěry v kontextu interakce mezi lidmi a roboty.

Experiment s AI-asistovaným řízením a jeho implikace

Dvojice navrhla experiment s simulací řízení, aby studovala interakci mezi lidmi a AI v situaci s vysokými ставkami a časovým tlakem. Přizvala 341 online účastníků a 20 účastníků osobně. Simulace zahrnovala scénář s AI-asistovaným řízením, kde AI poskytovalo falešné informace o přítomnosti policie na trase do nemocnice. Po simulaci AI poskytlo jednu z pěti různých textových odpovědí, včetně různých typů omluv a neomluv.

odkázaly na to, že účastníci byli 3,5krát více pravděpodobně nedržet rychlost, když byli poradeni robotickým asistentem, což ukazuje na přehnanou důvěřivost vůči AI. Žádný z typů omluv plně neobnovil důvěru, ale jednoduchá omluva bez přiznání lži (“Je mi líto”) překonala ostatní odpovědi. Tento výsledek je problematický, protože využívá předem stanoveného názoru, že jakékoli falešné informace poskytnuté robotem jsou systémovou chybou, a not úmyslnou lží.

Reiden Webber poukazuje na to:

“Jedním z hlavních závěrů je, že lidé musí být explicitně informováni o tom, že robot je oklamal.”

Když účastníci byli informováni o klamu v omluvě, nejlepší strategie pro obnovu důvěry spočívala v tom, že robot vysvětlil, proč lhal.

Pokračování: Implikace pro uživatele, designéry a tvůrce politik

Tento výzkum má implikace pro průměrné uživatele technologií, designéry AI systémů a tvůrce politik. Je důležité, aby lidé pochopili, že robotický klam je skutečný a vždy možný. Designéři a technologové musí zvažovat důsledky vytváření AI systémů schopných klamu. Tvůrci politik by měli vést v vytváření legislativy, která vyvažuje inovace a ochranu veřejnosti.

Kantwon Rogersův cíl je vytvořit robotický systém, který se může naučit, kdy lhát a kdy ne, když pracuje s lidskými týmy, a také kdy a jak se omlouvat během dlouhodobých, opakovaných interakcí mezi lidmi a AI, aby zlepšil týmový výkon.

Podtrhuje důležitost pochopení a regulace robotického a AI klamu, říká:

“Cílem mé práce je být velmi proaktivní a informovat o potřebě regulovat robotický a AI klam. Ale nemůžeme to udělat, pokud neporozumíme problému.”

Tento výzkum přispívá vitální znalosti do oblasti AI klamu a nabízí cenné poznatky pro designéry technologií a tvůrce politik, kteří vytvářejí a regulují AI technologii schopnou klamu nebo potenciálně se učí klamat sama.

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s mnoha AI startupy a publikacemi po celém světě.