cung Besimi dhe mashtrimi: Roli i faljes në ndërveprimet njeri-robot - Unite.AI
Lidhu me ne

Robotikë

Besimi dhe mashtrimi: Roli i faljes në ndërveprimet njeri-robot

Publikuar

 on

Burimi: Georgia Tech

Mashtrimi i robotëve është një fushë e nënstudiuar me më shumë pyetje sesa përgjigje, veçanërisht kur bëhet fjalë për rindërtimin e besimit në sistemet robotike pasi ata janë kapur duke gënjyer. Dy studiues studentë në Georgia Tech, Kantwon Rogers dhe Reiden Webber, po përpiqen të gjejnë përgjigje për këtë çështje duke hetuar sesi mashtrimi i qëllimshëm i robotëve ndikon në besimin dhe efektivitetin e faljeve në riparimin e besimit.

Rogers, një Ph.D. student në Kolegjin e Informatikës, shpjegon:

"E gjithë puna jonë e mëparshme ka treguar se kur njerëzit zbulojnë se robotët i kanë gënjyer - edhe nëse gënjeshtra kishte për qëllim t'u sjellë dobi - ata humbasin besimin në sistem."

Studiuesit synojnë të përcaktojnë nëse llojet e ndryshme të faljeve janë më efektive në rivendosjen e besimit në kontekstin e ndërveprimit njeri-robot.

Eksperimenti i drejtimit me ndihmën e AI dhe implikimet e tij

Dyshja krijoi një eksperiment simulimi të drejtimit për të studiuar ndërveprimin njeri-AI në një situatë me rrezik të lartë dhe të ndjeshme ndaj kohës. Ata rekrutuan 341 pjesëmarrës online dhe 20 pjesëmarrës personalisht. Simulimi përfshinte një skenar drejtimi me ndihmën e AI ku AI jepte informacion të rremë për praninë e policisë në rrugën për në spital. Pas simulimit, AI siguroi një nga pesë përgjigjet e ndryshme të bazuara në tekst, duke përfshirë lloje të ndryshme faljesh dhe jo-faljesh.

La rezultatet zbuloi se pjesëmarrësit kishin 3.5 herë më shumë gjasa të mos shpejtonin kur këshilloheshin nga një asistent robotik, gjë që tregon një qëndrim tepër besimplotë ndaj AI. Asnjë nga llojet e faljes nuk e riktheu plotësisht besimin, por kërkimi i thjeshtë i faljes pa pranimin e gënjeshtrës (“Më fal”) i kaloi përgjigjet e tjera. Ky zbulim është problematik, pasi shfrytëzon nocionin e paramenduar se çdo informacion i rremë i dhënë nga një robot është një gabim i sistemit dhe jo një gënjeshtër e qëllimshme.

Reiden Webber thekson:

"Një gjë e rëndësishme është se, në mënyrë që njerëzit të kuptojnë se një robot i ka mashtruar, atyre duhet t'u thuhet në mënyrë eksplicite."

Kur pjesëmarrësit u ndërgjegjësuan për mashtrimin në kërkim falje, strategjia më e mirë për të riparuar besimin ishte që roboti të shpjegonte pse gënjeu.

Ecja përpara: Implikime për përdoruesit, projektuesit dhe politikëbërësit

Ky hulumtim ka implikime për përdoruesit mesatarë të teknologjisë, projektuesit e sistemit të AI dhe politikëbërësit. Është thelbësore që njerëzit të kuptojnë se mashtrimi robotik është real dhe gjithmonë një mundësi. Projektuesit dhe teknologët duhet të marrin në konsideratë pasojat e krijimit të sistemeve të AI të afta për të mashtruar. Politikëbërësit duhet të marrin drejtimin në hartimin e legjislacionit që balancon inovacionin dhe mbrojtjen për publikun.

Objektivi i Kantwon Rogers është të krijojë një sistem robotik që mund të mësojë kur të gënjejë dhe kur të mos gënjejë kur punon me ekipe njerëzore, si dhe kur dhe si të kërkojë falje gjatë ndërveprimeve afatgjata dhe të përsëritura njeri-AI për të përmirësuar performancën e ekipit.

Ai thekson rëndësinë e të kuptuarit dhe rregullimit të mashtrimit të robotëve dhe AI, duke thënë:

“Qëllimi i punës sime është të jem shumë proaktiv dhe të informoj nevojën për të rregulluar mashtrimin e robotëve dhe AI. Por ne nuk mund ta bëjmë këtë nëse nuk e kuptojmë problemin.”

Ky hulumtim kontribuon me njohuri jetike në fushën e mashtrimit të AI dhe ofron njohuri të vlefshme për projektuesit e teknologjisë dhe politikëbërësit që krijojnë dhe rregullojnë teknologjinë e AI të aftë për të mashtruar ose potencialisht të mësojnë të mashtrojnë vetë.

Alex McFarland është një gazetar dhe shkrimtar i AI që eksploron zhvillimet më të fundit në inteligjencën artificiale. Ai ka bashkëpunuar me startupe dhe publikime të shumta të AI në mbarë botën.