ciot Roboții care promovează riscuri au anulat experiențele și instinctele directe într-un nou studiu - Unite.AI
Conectează-te cu noi

Etică

Roboții care promovează riscuri anulează experiențele și instinctele directe într-un nou studiu

Actualizat on

O nouă cercetare de la Universitatea din Southampton demonstrează cum roboții pot încuraja oamenii să-și asume riscuri mai mari în comparație cu dacă nu ar fi nimic care să le influențeze comportamentul. Experimentele, care au fost efectuate într-un scenariu simulat de jocuri de noroc, ajută experții să înțeleagă mai bine comportamentul de asumare a riscurilor și robotica, atât din punct de vedere etic, cât și practic.

Cercetarea a fost condusă de dr. Yaniv Hanoch, profesor asociat în managementul riscurilor la Universitatea din Southampton. A fost publicat în jurnal Securitate cibernetică, comportament și rețele sociale.

„Știm că presiunea de la egal la egal poate duce la un comportament mai asumat de riscuri”, a spus dr. Hanoch. „Cu scara tot mai mare a interacțiunii dintre oameni și tehnologie, atât online, cât și fizic, este crucial să înțelegem mai multe despre dacă mașinile pot avea un impact similar.”

Experiment

Studiul a implicat 180 de studenți care au luat sarcina de risc analog al balonului (BART), care este o evaluare computerizată care cere utilizatorilor să umfle un balon pe ecran apăsând bara de spațiu de pe o tastatură. Balonul se umflă ușor la fiecare apăsare, iar jucătorii primesc un ban de fiecare dată în „banca lor temporară”. Baloanele pot exploda în orice moment, ceea ce duce la pierderea banilor de către jucător, dar au opțiunea de a „încasa” înainte de a umfla mai mult balonul.

O treime dintre participanți, care erau grupul de control, au făcut testul singuri în camerele lor. O altă treime a susținut testul în timp ce era însoțit de un robot care a oferit doar instrucțiuni, altfel complet tăcut. Grupul final, care a fost grupul experimental, a susținut testul alături de un robot care a oferit instrucțiuni și a rostit declarații încurajatoare, cum ar fi „de ce te-ai oprit din pompat”.

Acest al treilea grup care a fost încurajat de robot a prezentat un comportament riscant mai mult decât celelalte grupuri, explodând mai mult baloanele. În același timp, au câștigat mai mulți bani în comparație cu celelalte grupuri. În ceea ce privește grupurile însoțite de robotul tăcut și fără niciun robot, nu a existat nicio diferență semnificativă între cele două.

„Am văzut participanții în starea de control că își reduc comportamentul de asumare a riscurilor în urma unei explozii de balon, în timp ce cei aflați în starea experimentală au continuat să își asume la fel de mult risc ca înainte”, a spus dr. Hanoch. „Așadar, primirea încurajării directe de la un robot care promovează riscuri pare să depășească experiențele și instinctele directe ale participanților.”

Cercetătorii vor efectua studii suplimentare pentru a înțelege mai bine interacțiunea umană cu alte sisteme de inteligență artificială (AI), inclusiv asistenții digitali.

„Odată cu răspândirea largă a tehnologiei AI și a interacțiunilor sale cu oamenii, acesta este un domeniu care necesită o atenție urgentă din partea comunității de cercetare”, a continuat Dr. Hanoch.

„Pe de o parte, rezultatele noastre ar putea stârni alarme cu privire la perspectiva ca roboții să provoace daune prin creșterea comportamentului riscant. Pe de altă parte, datele noastre indică posibilitatea utilizării roboților și a inteligenței artificiale în programe preventive, cum ar fi campaniile anti-fumat în școli și cu populații greu accesibile, cum ar fi dependenții.”

Alex McFarland este jurnalist și scriitor AI care explorează cele mai recente evoluții în inteligența artificială. A colaborat cu numeroase startup-uri și publicații AI din întreaga lume.