Connect with us

Robotica

L’exploitazione dei robot è universale o dipendente dalla cultura?

mm

Le persone in Giappone trattano gli agenti artificiali cooperativi con lo stesso livello di rispetto con cui trattano gli esseri umani, mentre gli americani sono significativamente più propensi a sfruttare l’IA per guadagno personale, secondo uno studiopubblicato in Scientific Reportsda ricercatori dell’LMU di Monaco e dell’Università di Waseda a Tokyo.

Mentre i veicoli autonomi e altri robot autonomi dell’IAdiventano sempre più integrati nella vita quotidiana, gli atteggiamenti culturali nei confronti degli agenti artificiali possono determinare con quale rapidità e successo queste tecnologie vengono implementate in diverse società.

Divario culturale nella cooperazione uomo-IA

“Man mano che la tecnologia di guida autonoma diventa una realtà, questi incontri quotidiani definiranno come condivideremo la strada con le macchine intelligenti”, ha dichiarato il dottor Jurgis Karpus, ricercatore principale dell’LMU di Monaco, nello studio.

La ricerca rappresenta una delle prime esaminazioni cross-culturali complete di come gli esseri umani interagiscono con gli agenti artificiali in scenari in cui gli interessi potrebbero non essere sempre allineati. I risultati sfidano l’ipotesi che lo sfruttamento degli algoritmi – la tendenza a prendere vantaggio dell’IA cooperativa – sia un fenomeno universale.

I risultati suggeriscono che man mano che le tecnologie autonome diventano più diffuse, le società potrebbero sperimentare sfide di integrazione diverse in base agli atteggiamenti culturali nei confronti dell’intelligenza artificiale.

Metodologia della ricerca: la teoria dei giochi rivela le differenze comportamentali

Il team di ricerca ha utilizzato esperimenti classici di economia comportamentale – il Trust Game e il Prisoner’s Dilemma – per confrontare come i partecipanti del Giappone e degli Stati Uniti interagivano con partner umani e sistemi di IA.

In questi giochi, i partecipanti hanno fatto scelte tra interesse personale e beneficio reciproco, con incentivi monetari reali per assicurarsi che stessero prendendo decisioni genuine e non ipotetiche. Questo design sperimentale ha consentito ai ricercatori di confrontare direttamente come i partecipanti trattavano gli esseri umani rispetto all’IA in scenari identici.

I giochi sono stati progettati con cura per replicare situazioni quotidiane, comprese le scenari di traffico, in cui gli esseri umani devono decidere se cooperare o sfruttare un altro agente. I partecipanti hanno giocato più round, a volte con partner umani e a volte con sistemi di IA, consentendo un confronto diretto dei loro comportamenti.

“I nostri partecipanti negli Stati Uniti hanno cooperato con gli agenti artificiali significativamente meno di quanto abbiano fatto con gli esseri umani, mentre i partecipanti in Giappone hanno esibito livelli equivalenti di cooperazione con entrambi i tipi di co-giocatore”, afferma il documento.

Karpus, J., Shirai, R., Verba, J.T. et al.

Colpa come fattore chiave nelle differenze culturali

I ricercatori propongono che le differenze nel senso di colpa sperimentato siano un fattore principale della variazione culturale osservata nel modo in cui le persone trattano gli agenti artificiali.

Lo studio ha scoperto che le persone in Occidente, in particolare negli Stati Uniti, tendono a provare rimorso quando sfruttano un altro essere umano, ma non quando sfruttano una macchina. In Giappone, al contrario, le persone sembrano sperimentare la colpa in modo simile, sia che maltrattino una persona o un agente artificiale.

Il dottor Karpus spiega che nel pensiero occidentale, tagliare fuori un robot nel traffico non fa male ai suoi sentimenti, sottolineando una prospettiva che potrebbe contribuire a una maggiore disponibilità a sfruttare le macchine.

Lo studio includeva una componente esplorativa in cui i partecipanti hanno riferito le loro risposte emotive dopo che i risultati dei giochi sono stati rivelati. Questi dati hanno fornito informazioni cruciali sui meccanismi psicologici sottostanti le differenze comportamentali.

Risposte emotive rivelano modelli culturali più profondi

Quando i partecipanti hanno sfruttato un’IA cooperativa, i partecipanti giapponesi hanno riferito di provare emozioni negative (colpa, rabbia, delusione) e meno emozioni positive (felicità, trionfo, sollievo) rispetto ai loro omologhi americani.

La ricerca ha scoperto che i partecipanti giapponesi che hanno sfruttato il loro co-giocatore di IA hanno riferito di provare una colpa significativamente maggiore rispetto ai partecipanti americani. Questa risposta emotiva più forte potrebbe spiegare la maggiore riluttanza tra i partecipanti giapponesi a sfruttare gli agenti artificiali.

Al contrario, gli americani hanno provato emozioni negative quando hanno sfruttato gli esseri umani più che l’IA, una distinzione non osservata tra i partecipanti giapponesi. Per le persone in Giappone, la risposta emotiva è stata simile, indipendentemente dal fatto che avessero sfruttato un essere umano o un agente artificiale.

Lo studio osserva che i partecipanti giapponesi hanno provato lo stesso sentimento nei confronti dello sfruttamento di esseri umani e IA, su tutte le emozioni esaminate, suggerendo una percezione morale fondamentalmente diversa degli agenti artificiali rispetto agli atteggiamenti occidentali.

Animismo e percezione dei robot

Il retroterra culturale e storico del Giappone potrebbe svolgere un ruolo significativo in questi risultati, offrendo potenziali spiegazioni per le differenze osservate nel comportamento verso gli agenti artificiali e l’IA incorporata.

Il documento nota che l’affinità storica del Giappone per l’animismo e la credenza che gli oggetti non viventi possano possedere anime nel buddismo ha portato all’ipotesi che le persone giapponesi siano più accettanti e più propense a prendersi cura dei robot rispetto agli individui in altre culture.

Questo contesto culturale potrebbe creare un punto di partenza fondamentalmente diverso per la percezione degli agenti artificiali. In Giappone, potrebbe esserci meno una distinzione netta tra esseri umani e entità non umane in grado di interagire.

La ricerca indica che le persone in Giappone sono più propense delle persone negli Stati Uniti a credere che i robot possano provare emozioni e sono più disposte ad accettare i robot come bersagli del giudizio morale umano.

Gli studi citati nel documento suggeriscono una maggiore tendenza in Giappone a percepire gli agenti artificiali come simili agli esseri umani, con robot e esseri umani spesso rappresentati come partner piuttosto che in relazioni gerarchiche. Questa prospettiva potrebbe spiegare perché i partecipanti giapponesi hanno trattato gli agenti artificiali e gli esseri umani con la stessa considerazione emotiva.

Implicazioni per l’adozione della tecnologia autonoma

Questi atteggiamenti culturali potrebbero avere un impatto diretto sulla rapidità con cui le tecnologie autonome vengono adottate in diverse regioni, con potenziali implicazioni economiche e sociali di vasta portata.

Il dottor Karpus ipotizza che se le persone in Giappone trattano i robot con lo stesso rispetto degli esseri umani, i taxi completamente autonomi potrebbero diventare comuni a Tokyo più rapidamente che in città occidentali come Berlino, Londra o New York.

La disponibilità a sfruttare i veicoli autonomi in alcune culture potrebbe creare sfide pratiche per una loro integrazione senza problemi nella società. Se gli automobilisti sono più propensi a tagliare fuori le auto a guida autonoma, a prendere il loro diritto di precedenza o a sfruttare altrimenti la loro cautela programmata, potrebbe ostacolare l’efficienza e la sicurezza di questi sistemi.

I ricercatori suggeriscono che queste differenze culturali potrebbero influenzare in modo significativo il cronogramma per l’adozione generalizzata di tecnologie come i droni di consegna, i trasporti pubblici autonomi e i veicoli personali a guida autonoma.

Interessantemente, lo studio ha scoperto poca differenza nel modo in cui i partecipanti giapponesi e americani cooperavano con altri esseri umani, allineandosi con la ricerca precedente in economia comportamentale.

Lo studio ha osservato una limitata differenza nella disponibilità dei partecipanti giapponesi e americani a cooperare con altri esseri umani. Questo risultato sottolinea che la divergenza emerge specificamente nel contesto dell’interazione uomo-IA e non riflette differenze culturali più ampie nel comportamento cooperativo.

Questa coerenza nella cooperazione uomo-uomo fornisce un importante punto di riferimento rispetto al quale misurare le differenze culturali nell’interazione uomo-IA, rafforzando le conclusioni dello studio sull’unicità del modello osservato.

Implicazioni più ampie per lo sviluppo dell’IA

I risultati hanno implicazioni significative per lo sviluppo e la distribuzione di sistemi di IA progettati per interagire con gli esseri umani in diversi contesti culturali.

La ricerca sottolinea la necessità critica di considerare i fattori culturali nella progettazione e nell’implementazione di sistemi di IA che interagiscono con gli esseri umani. Il modo in cui le persone percepiscono e interagiscono con l’IA non è universale e può variare notevolmente tra le culture.

Ignorare queste sfumature culturali potrebbe portare a conseguenze inintenzionali, a ritardi nell’adozione e al potenziale per l’uso improprio o lo sfruttamento delle tecnologie di IA in alcune regioni. Sottolinea l’importanza degli studi cross-culturali per comprendere l’interazione uomo-IA e garantire lo sviluppo e la distribuzione responsabili dell’IA a livello globale.

I ricercatori suggeriscono che man mano che l’IA diventa più integrata nella vita quotidiana, comprendere queste differenze culturali diventerà sempre più importante per una implementazione di successo di tecnologie che richiedono la cooperazione tra esseri umani e agenti artificiali.

Limitazioni e direzioni future per la ricerca

I ricercatori riconoscono alcune limitazioni nel loro lavoro che puntano a direzioni per future indagini.

Lo studio si è concentrato principalmente su due paesi, il Giappone e gli Stati Uniti, che, sebbene forniscano informazioni preziose, potrebbero non catturare l’intero spettro della variazione culturale nell’interazione uomo-IA a livello globale. Ulteriori ricerche su un’ampia gamma di culture sono necessarie per generalizzare questi risultati.

Inoltre, se gli esperimenti di teoria dei giochi forniscono scenari controllati ideali per la ricerca comparativa, potrebbero non catturare appieno le complessità delle interazioni uomo-IA nel mondo reale. I ricercatori suggeriscono che validare questi risultati in studi sul campo con tecnologie autonome reali sarebbe un importante passo successivo.

La spiegazione basata sulla colpa e sulle credenze culturali sui robot, sebbene supportata dai dati, richiede ulteriori indagini empiriche per stabilire la causalità in modo definitivo. I ricercatori chiedono studi più mirati che esaminino i meccanismi psicologici specifici sottostanti a queste differenze culturali.

“I nostri risultati attuali mitigano la generalizzazione di questi risultati e mostrano che lo sfruttamento degli algoritmi non è un fenomeno cross-culturale”, concludono i ricercatori.

Alex McFarland è un giornalista e scrittore di intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup di intelligenza artificiale e pubblicazioni in tutto il mondo.