Robotica
I ricercatori creano un robot che mostra empatia di base a un robot partner

Uno studio recente è riuscito a dotare un robot di una forma rudimentale di empatia, consentendo al robot di prevedere gli obiettivi e le azioni del suo partner robotico.
Un team di ingegneri della School of Engineering and Applied Science dell'Università della Colombia ha progettato un robot in grado di prevedere con successo le azioni e gli obiettivi di un robot partner sulla base di pochi fotogrammi di un video. Gli ingegneri sostengono che il robot e la sua intelligenza artificiale mostrano una forma primitiva di empatia e che la ricerca futura in quest'area potrebbe aiutare a dare ai robot una "teoria della mente".
Il recente studio è stato condotto dal professor Hod Lipson del Creative Machines Lab della Columbia Engineering. La ricerca condotta da Lipson e dal suo team è solo una parte di un più ampio sforzo accademico per consentire ai robot di comprendere e prevedere gli obiettivi di altri robot e potenzialmente umani. Questa previsione deve essere fatta interamente attraverso l'analisi dei dati raccolti dai sensori, dati visivi primari.
Robot che osserva il robot
Il team di ricercatori ha costruito un robot per operare all'interno di un box di circa 6 piedi quadrati. Il robot era programmato per cercare cerchi verdi e muoversi verso quei cerchi verdi, ma non tutti i cerchi verdi all'interno del box erano visibili al robot. Alcuni dei cerchi verdi del bersaglio erano facilmente visibili dalla posizione di partenza del robot, ma altri erano nascosti dietro una grande scatola di cartone.
Un secondo robot è stato programmato per osservare il primo robot, osservando il robot nel recinto per circa due ore. Dopo aver osservato il suo robot partner, il robot osservatore è stato in grado di prevedere sia l'obiettivo che i percorsi del suo partner per la maggior parte del tempo. Il robot osservatore è stato in grado di prevedere correttamente il percorso intrapreso dall'altro robot con una precisione del 98%, anche se il robot osservatore non era a conoscenza dell'incapacità del robot esploratore di vedere dietro la scatola.
Uno degli autori principali dello studio, Boyuan Chen, ha spiegato tramite ScienceDaily che i risultati dello studio dimostrano la capacità dei robot di interpretare il mondo dalla prospettiva di un altro robot.
"La capacità dell'osservatore di mettersi nei panni del partner, per così dire, e di capire, senza essere guidato, se il partner poteva o non poteva vedere il cerchio verde dal suo punto di osservazione, è forse una forma primitiva di empatia", ha spiegato Chen.
Il team di ricerca si aspettava che il robot osservatore potesse prevedere le azioni a breve termine del robot esploratore, ma quello che hanno scoperto è che il robot osservatore non solo era in grado di prevedere azioni a breve termine, ma piuttosto poteva prevedere con precisione azioni a lungo termine. azioni basate su pochi fotogrammi di video.
“Teoria della mente”
Evidentemente, i comportamenti esibiti dal robot esploratore sono più semplici di molte azioni compiute dagli umani, e quindi prevedere gli obiettivi e i comportamenti degli umani è piuttosto lontano. Tuttavia, i ricercatori sostengono che ciò che è comune tra la previsione delle azioni di un essere umano e le azioni di un robot è l'utilizzo di una "teoria della mente". La ricerca psicologica suggerisce che gli esseri umani iniziano a sviluppare una teoria della mente intorno ai tre anni. Una teoria della mente è necessaria per la cooperazione, l'empatia e l'inganno. Il team di ricerca spera che ulteriori ricerche sulla tecnologia che guida le interazioni tra i loro robot aiuteranno gli scienziati a sviluppare robot ancora più sofisticati.
Come accennato, mentre l'empatia è generalmente indicata come un tratto positivo che consente la cooperazione, è necessaria anche per azioni più negative come l'inganno. Per ingannare qualcuno con successo, devi capire i suoi desideri e le sue intenzioni. Ciò apre alcune domande etiche, poiché una volta che i robot possono potenzialmente ingannare gli umani, cosa impedisce loro di essere impiegati da cattivi attori per manipolare ed estorcere le persone?
Mentre il robot osservatore è stato addestrato esclusivamente sui dati delle immagini, Lipson ritiene che in linea di principio un sistema predittivo simile potrebbe essere progettato sulla base del linguaggio umano, osservando che le persone spesso immaginano le cose con gli occhi della mente, pensando visivamente.
Gli sforzi del team di ricerca della Colombia fanno parte di una spinta più ampia per dotare l'intelligenza artificiale di una teoria della mente e dell'empatia. Euan Matthews, direttore di AI e innovazione presso Contact Engine, recentemente sostenuto che affinché le IA diventino più empatiche, dovranno essere in grado di considerare più intenzioni, non solo una. Gli esseri umani hanno spesso intenzioni multiple, a volte desideri e sentimenti contrastanti su un argomento, e le IA dovranno diventare più flessibili quando si tratta dell'intenzionalità umana.












