stub Usaldus ja pettus: vabanduste roll inimese ja roboti vahelises suhtluses – Unite.AI
Ühenda meile

Robotics

Usaldus ja pettus: vabanduste roll inimese ja roboti suhetes

avaldatud

 on

Allikas: Georgia Tech

Robotite petmine on alauuritud valdkond, kus on rohkem küsimusi kui vastuseid, eriti kui on vaja taastada usaldus robotsüsteemide vastu pärast seda, kui nad on valetamisega vahele jäänud. Kaks Georgia Techi üliõpilasteadlast Kantwon Rogers ja Reiden Webber püüavad sellele probleemile vastuseid leida, uurides, kuidas roboti tahtlik petmine mõjutab usaldust ja vabanduste tõhusust usalduse parandamisel.

Rogers, Ph.D. Arvutuskõrgkooli üliõpilane selgitab:

"Kogu meie eelnev töö on näidanud, et kui inimesed saavad teada, et robotid neile valetasid – isegi kui vale oli mõeldud neile kasuks – kaotavad nad usalduse süsteemi vastu."

Teadlaste eesmärk on kindlaks teha, kas erinevat tüüpi vabandused on inimese ja roboti suhtluse kontekstis usalduse taastamisel tõhusamad.

AI-abiga sõidukatse ja selle tagajärjed

Duo kavandas sõidusimulatsiooni katse, et uurida inimese ja tehisintellekti interaktsiooni kõrge panusega ja ajatundlikus olukorras. Nad värbasid 341 veebis osalejat ja 20 isiklikult osalejat. Simulatsioon hõlmas tehisintellekti abil juhitud stsenaariumi, kus tehisintellekt andis valeteavet politsei viibimise kohta teel haiglasse. Pärast simulatsiooni andis tehisintellekt ühe viiest erinevast tekstipõhisest vastusest, sealhulgas erinevat tüüpi vabandused ja vabandused.

. tulemused näitas, et osalejad ei kiirustanud 3.5 korda tõenäolisemalt, kui robot-assistendi nõu andis, mis viitab liiga usaldavale suhtumisele tehisintellekti. Ükski vabandustüüp ei taastanud usaldust täielikult, kuid lihtne vabandus ilma valetamist tunnistamata („vabandan“) ületas teisi vastuseid. See leid on problemaatiline, kuna kasutab ära eelarvamust, et roboti antud valeinformatsioon on pigem süsteemiviga kui tahtlik vale.

Reiden Webber juhib tähelepanu:

"Üks oluline järeldus on see, et selleks, et inimesed saaksid aru, et robot on neid petnud, tuleb seda neile selgesõnaliselt öelda."

Kui osalejad vabanduses pettusest teadlikuks said, oli parim strateegia usalduse parandamiseks, kui robot selgitas, miks ta valetas.

Edasi liikumine: tagajärjed kasutajatele, kujundajatele ja poliitikakujundajatele

See uuring mõjutab tavalisi tehnoloogiakasutajaid, AI-süsteemide kujundajaid ja poliitikakujundajaid. Inimeste jaoks on ülioluline mõista, et robot-pettus on reaalne ja alati võimalik. Disainerid ja tehnoloogid peavad arvestama petmisvõimeliste AI-süsteemide loomise tagajärgedega. Poliitikakujundajad peaksid võtma juhtrolli selliste õigusaktide väljatöötamisel, mis tasakaalustavad innovatsiooni ja avalikkuse kaitset.

Kantwon Rogersi eesmärk on luua robotsüsteem, mis suudab õppida, millal valetada ja millal mitte valetada inimmeeskondadega töötades, samuti millal ja kuidas vabandada pikaajalise korduva inimese ja tehisintellektiga suhtlemise ajal, et parandada meeskonna jõudlust.

Ta rõhutab robotite ja tehisintellekti pettuse mõistmise ja reguleerimise tähtsust, öeldes:

„Minu töö eesmärk on olla väga proaktiivne ja teavitada roboti ja tehisintellekti pettuse reguleerimise vajadusest. Kuid me ei saa seda teha, kui me probleemist aru ei saa.

See uurimus annab elutähtsaid teadmisi tehisintellekti petmise valdkonda ning pakub väärtuslikke teadmisi tehnoloogiadisaineritele ja poliitikakujundajatele, kes loovad ja reguleerivad tehisintellekti tehnoloogiat, mis on võimeline petma või potentsiaalselt ise petma õppima.

Alex McFarland on AI ajakirjanik ja kirjanik, kes uurib tehisintellekti uusimaid arenguid. Ta on teinud koostööd paljude AI idufirmade ja väljaannetega üle maailma.