Connect with us

Robotică

Este oare Exploatarea Robotilor Universala sau Dependentă de Cultură?

mm

Oamenii din Japonia tratează agenții artificiali cooperativi cu același nivel de respect ca și oamenii, în timp ce americanii sunt semnificativ mai predispuși să exploateze inteligența artificială pentru câștig personal, conform unui studiu nou publicat în Scientific Reports de către cercetători de la LMU Munich și Waseda University Tokyo.

Pe măsură ce vehiculele autonome și alte roboți autonomi AI devin tot mai integrate în viața de zi cu zi, atitudinile culturale față de agenții artificiali pot determina cât de repede și cu cât succes aceste tehnologii sunt implementate în diferite societăți.

Divizarea Culturală în Cooperarea Uman-AI

“Pe măsură ce tehnologia de conducere autonomă devine o realitate, aceste întâlniri de zi cu zi vor defini cum împărțim drumul cu mașinile inteligente”, a declarat dr. Jurgis Karpus, cercetătorul principal de la LMU Munich, în studiu.

Cercetarea reprezintă una dintre primele examinări cuprinzătoare trans-culturale ale modului în care oamenii interacționează cu agenții artificiali în scenarii în care interesele nu sunt întotdeauna aliniate. Rezultatele pun la încercare ipoteza că exploatarea algoritmilor – tendința de a profita de inteligența artificială cooperativă – este un fenomen universal.

Rezultatele sugerează că pe măsură ce tehnologiile autonome devin mai prevalente, societățile pot experimenta diferite provocări de integrare bazate pe atitudinile culturale față de inteligența artificială.

Metodologia Cercetării: Teoria Jocurilor Dezvăluie Diferențe Comportamentale

Echipa de cercetare a utilizat experimente clasice de economie comportamentală – Jocul de Încredere și Dilema Prizonierului – pentru a compara modul în care participanții din Japonia și Statele Unite interacționează cu parteneri umani și sisteme AI.

În aceste jocuri, participanții au făcut alegeri între interese personale și beneficii reciproce, cu stimulente financiare reale pentru a se asigura că luau decizii autentice și nu ipotetice. Acest design experimental a permis cercetătorilor să compare direct modul în care participanții tratau oamenii versus AI în scenarii identice.

Jocurile au fost structurate cu atenție pentru a replica situații de zi cu zi, inclusiv scenarii de trafic, în care oamenii trebuie să decidă dacă să coopereze sau să exploateze alt agent. Participanții au jucat multiple runde, uneori cu parteneri umani și uneori cu sisteme AI, permițând o comparație directă a comportamentelor lor.

“Participanții noștri din Statele Unite au cooperat cu agenții artificiali semnificativ mai puțin decât au făcut cu oamenii, în timp ce participanții din Japonia au arătat niveluri echivalente de cooperare cu ambele tipuri de co-juutor”, afirmă lucrarea.

Karpus, J., Shirai, R., Verba, J.T. et al.

Vinovăția ca Factor Cheie în Diferențele Culturale

Cercetătorii propun că diferențele în vinovăția resimțită sunt un factor principal al variației culturale observate în modul în care oamenii tratează agenții artificiali.

Studiul a constatat că oamenii din Vest, în special în Statele Unite, tind să resimtă remușcări atunci când exploatează un alt om, dar nu atunci când exploatează o mașină. În Japonia, oamenii par să resimtă vinovăție în mod similar, indiferent dacă tratează rău o persoană sau un agent artificial.

Dr. Karpus explică că, în gândirea occidentală, închiderea unui robot în trafic nu îi rănește sentimentele, subliniind o perspectivă care poate contribui la o mai mare disponibilitate de a exploata mașinile.

Studiul a inclus o componentă exploratorie în care participanții au raportat răspunsurile lor emoționale după ce rezultatele jocului au fost dezvăluite. Aceste date au oferit insighturi cruciale în mecanismele psihologice care stau la baza diferențelor comportamentale.

Răspunsurile Emoționale Dezvăluie Modele Culturale Mai Profunde

Atunci când participanții au exploatat un AI cooperativ, participanții japonezi au raportat sentimente negative semnificativ mai puternice (vinovăție, mânie, dezamăgire) și mai puține emoții pozitive (fericire, victorie, ușurare) în comparație cu omologii lor americani.

Cercetarea a constatat că cei care au exploatat AI-ul în Japonia au raportat sentimente de vinovăție semnificativ mai puternice decât cei din Statele Unite. Acest răspuns emoțional puternic poate explica reticența mai mare a participanților japonezi de a exploata agenții artificiali.

Dimpotrivă, americanii au resimțit emoții negative mai puternice atunci când au exploatat oameni decât AI, o distincție care nu a fost observată la participanții japonezi. Pentru oamenii din Japonia, răspunsul emoțional a fost similar, indiferent dacă au exploatat un om sau un agent artificial.

Studiul notează că participanții japonezi au resimțit sentimente similare atunci când au exploatat atât oameni, cât și AI, sugerând o percepție morală fundamental diferită a agenților artificiali în comparație cu atitudinile occidentale.

Animismul și Percepția Roboților

Fundalul cultural și istoric al Japoniei poate juca un rol semnificativ în aceste constatări, oferind explicații potențiale pentru diferențele observate în comportamentul față de agenții artificiali și AI încorporat.

Lucrarea notează că afinitatea istorică a Japoniei pentru animism și credința că obiectele neînsuflețite pot poseda suflete în budism a condus la presupunerea că oamenii din Japonia sunt mai acceptanți și îngrijitori cu roboții decât indivizii din alte culturi.

Acest context cultural ar putea crea un punct de plecare fundamental diferit pentru modul în care sunt percepuți agenții artificiali. În Japonia, poate exista o distincție mai puțin ascuțită între oameni și entități neumane capabile de interacțiune.

Cercetarea indică faptul că oamenii din Japonia sunt mai predispuși decât cei din Statele Unite să creadă că roboții pot experimenta emoții și sunt mai dispuși să accepte roboții ca ținte ale judecății morale umane.

Studiile citate în lucrare sugerează o tendință mai mare în Japonia de a percepe agenții artificiali ca fiind asemănători oamenilor, roboții și oamenii fiind adesea descriși ca parteneri și nu în relații ierarhice. Această perspectivă ar putea explica de ce participanții japonezi au tratat agenții artificiali și oamenii cu considerație emoțională similară.

Implicații pentru Adoptarea Tehnologiei Autonome

Aceste atitudini culturale ar putea impacta direct cât de repede tehnologiile autonome sunt adoptate în diferite regiuni, cu implicații economice și sociale semnificative.

Dr. Karpus presupune că, dacă oamenii din Japonia tratează roboții cu același respect ca și oamenii, taxiurile autonome cu conducere completă ar putea deveni mai repede obișnuite în Tokyo decât în orașele occidentale, cum ar fi Berlin, Londra sau New York.

Disponibilitatea de a exploata tehnologia autonomă în anumite culturi ar putea crea provocări practice pentru integrarea lor lină în societate. Dacă șoferii sunt mai predispuși să taie mașinile autonome, să le ia prioritatea sau să le exploateze în alt mod, acest lucru ar putea împiedica eficiența și siguranța acestor sisteme.

Cercetătorii sugerează că aceste diferențe culturale ar putea influența semnificativ calendarul pentru adoptarea pe scară largă a tehnologiilor precum dronele de livrare, transportul public autonom și vehiculele personale autonome.

Interesant, studiul a constatat o mică diferență în modul în care participanții japonezi și americani cooperează cu alți oameni, aliniindu-se cu cercetările anterioare în economia comportamentală.

Studiul a observat o diferență limitată în disponibilitatea participanților japonezi și americani de a coopera cu alți oameni. Această constatare subliniază faptul că divergența apare specific în contextul interacțiunii uman-AI, mai degrabă decât reflectând diferențe culturale mai largi în comportamentul cooperativ.

Această consistență în cooperarea umană oferă o bază importantă pentru a măsura diferențele culturale în interacțiunea uman-AI, consolidând concluziile studiului despre unicitatea modelului observat.

Implicații Mai Largi pentru Dezvoltarea Inteligenței Artificiale

Rezultatele au implicații semnificative pentru dezvoltarea și implementarea sistemelor de inteligență artificială proiectate să interacționeze cu oamenii în diferite contexte culturale.

Cercetarea subliniază nevoia critică de a lua în considerare factorii culturali în proiectarea și implementarea sistemelor de inteligență artificială care interacționează cu oamenii. Modul în care oamenii percep și interacționează cu inteligența artificială nu este universal și poate varia semnificativ în diferite culturi.

Ignorarea acestor nuanțe culturale ar putea duce la consecințe neintenționate, rate de adoptare mai lente și potențialul de a exploata sau abuza tehnologiilor de inteligență artificială în anumite regiuni. Acest lucru subliniază importanța studiilor trans-culturale pentru înțelegerea interacțiunii uman-AI și asigurarea dezvoltării și implementării responsabile a inteligenței artificiale la nivel global.

Cercetătorii sugerează că, pe măsură ce inteligența artificială devine mai integrată în viața de zi cu zi, înțelegerea acestor diferențe culturale va deveni tot mai importantă pentru implementarea cu succes a tehnologiilor care necesită cooperare între oameni și agenți artificiali.

Limitări și Direcții Viitoare de Cercetare

Cercetătorii recunosc anumite limitări în lucrarea lor, care indică direcții pentru investigații viitoare.

Studiul s-a concentrat în principal pe două țări – Japonia și Statele Unite – care, deși oferă insighturi valoroase, poate nu capturează întregul spectru al variației culturale în interacțiunea uman-AI la nivel global. Mai multe cercetări într-o gamă mai largă de culturi sunt necesare pentru a generaliza aceste constatări.

În plus, deși experimentele de teorie a jocurilor oferă scenarii controlate ideale pentru cercetarea comparativă, ele nu pot capta pe deplin complexitățile interacțiunilor reale uman-AI. Cercetătorii sugerează că validarea acestor constatări în studii de teren cu tehnologii autonome reale ar fi un pas important următor.

Explicația bazată pe vinovăție și credințele culturale despre roboți, deși susținută de date, necesită investigații empirice suplimentare pentru a stabili cauzalitatea în mod definitiv. Cercetătorii solicită studii mai direcționate care examinează mecanismele psihologice specifice care stau la baza acestor diferențe culturale.

“Rezultatele noastre actuale temperează generalizarea acestor rezultate și arată că exploatarea algoritmilor nu este un fenomen trans-cultural”, concluzionează cercetătorii.

Alex McFarland este un jurnalist și scriitor de inteligență artificială, care explorează cele mai recente dezvoltări în domeniul inteligenței artificiale. El a colaborat cu numeroase startup-uri de inteligență artificială și publicații din întreaga lume.