mozzicone Uno studio suggerisce che i robot sono più persuasivi quando fingono di essere umani - Unite.AI
Seguici sui social

Robotica

Uno studio suggerisce che i robot sono più persuasivi quando fingono di essere umani

mm

Pubblicato il

 on

I progressi nell'intelligenza artificiale hanno creato robot e macchine che possono potenzialmente passare per esseri umani se interagiscono con le persone esclusivamente attraverso un mezzo digitale. Recentemente, un team di ricercatori informatici ha studiato come interagiscono robot/macchine e umani quando gli umani credono che anche i robot siano umani. Come riportato da ScienceDaily, i risultati dello studio hanno rilevato che le persone trovano i robot/chatbot più persuasivi quando credono che i robot siano umani.

Talal Rahwan, professore associato di Informatica presso la NYU Abu Dhabi, ha recentemente condotto uno studio che ha esaminato il modo in cui i robot e gli esseri umani interagiscono tra loro. I risultati dell'esperimento sono stati pubblicati in Nature Machine Intelligence in un rapporto intitolato Transparency-Efficiency Tradeoff in Human-Machine Cooperation. Durante il corso dello studio, ai soggetti del test è stato chiesto di giocare a un gioco cooperativo con un partner e il partner può essere un essere umano o un robot.

Il gioco è stato una svolta nel classico dilemma del prigioniero, in cui i partecipanti devono decidere se cooperare o meno o tradire l'altro a ogni round. Nel dilemma del prigioniero, una parte può scegliere di disertare e tradire il proprio partner per ottenere un vantaggio a costo dell'altro giocatore, e solo cooperando entrambe le parti possono assicurarsi un guadagno.

I ricercatori hanno manipolato i soggetti del test fornendo loro informazioni corrette o errate sull'identità del loro partner. Ad alcuni dei partecipanti è stato detto che stavano giocando con un robot, anche se il loro partner era in realtà umano. Altri partecipanti erano nella situazione inversa. Nel corso dell'esperimento, il team di ricerca è stato in grado di quantificare se le persone trattassero i partner in modo diverso quando gli veniva detto che i loro partner erano robot. I ricercatori hanno monitorato il grado di esistenza di qualsiasi pregiudizio nei confronti dei robot e in che modo questi atteggiamenti hanno influito sulle interazioni con i robot che si sono identificati.

I risultati dell'esperimento hanno dimostrato che i robot erano più efficaci nel generare cooperazione da parte dei loro partner quando l'umano credeva che anche il robot fosse un essere umano. Tuttavia, quando è stato rivelato che il bot era un bot, i livelli di cooperazione sono diminuiti. Rahwan ha spiegato che mentre molti scienziati ed esperti di etica concordano sul fatto che l'IA dovrebbe essere trasparente riguardo a come vengono prese le decisioni, è meno chiaro che dovrebbero essere trasparenti anche sulla loro natura quando comunicano con gli altri.

L'anno scorso, Google Duplex ha fatto colpo quando una demo sul palco ha mostrato che era in grado di effettuare telefonate e prenotare appuntamenti per conto del suo utilizzo, generando un discorso simile a quello umano così sofisticato che molte persone lo avrebbero scambiato per una persona reale se lo avessero non è stato detto che stavano parlando con un bot. Dal debutto di Google Duplex, molti esperti di etica dell'intelligenza artificiale e dei robot hanno espresso le loro preoccupazioni sulla tecnologia, spingendo Google a dire che avrebbe l'agente di identificarsi come bot in futuro. Attualmente, Google Duplex viene utilizzato solo in una capacità molto limitata. Lo sarà presto vedi l'uso in Nuova Zelanda, ma solo per verificare gli orari di apertura delle attività commerciali. Gli esperti di etica sono ancora preoccupati per il grado in cui la tecnologia potrebbe essere utilizzata in modo improprio.

Rahawan sostiene che il recente studio dimostra che dovremmo considerare quali costi siamo disposti a pagare in cambio della trasparenza:

“È etico sviluppare un tale sistema? Dovremmo proibire ai robot di passare per umani e costringerli a essere trasparenti su chi sono? Se la risposta è "Sì", i nostri risultati evidenziano la necessità di stabilire degli standard per il costo dell'efficienza che siamo disposti a pagare in cambio di tale trasparenza".

Blogger e programmatore con specialità in machine Learning ed Deep Learning temi. Daniel spera di aiutare gli altri a usare il potere dell'intelligenza artificiale per il bene sociale.