mozzicone I ricercatori sviluppano un framework per fornire ai robot abilità sociali - Unite.AI
Seguici sui social

Robotica

I ricercatori sviluppano un framework per fornire ai robot abilità sociali

Pubblicato il

 on

Immagine: MIT

I ricercatori del Massachusetts Institute of Technology (MIT) hanno sviluppato un quadro di controllo per fornire ai robot abilità sociali. Il framework consente alle macchine di capire cosa significa aiutarsi o ostacolarsi a vicenda, nonché di imparare a eseguire comportamenti sociali da sole. 

Un robot osserva il suo compagno in un ambiente simulato prima di indovinare quale compito vuole svolgere. Quindi aiuta o ostacola l'altro robot in base ai propri obiettivi. 

I ricercatori hanno anche dimostrato che il loro modello crea interazioni sociali realistiche e prevedibili. Quando agli spettatori umani sono stati mostrati i video dei robot simulati che interagiscono tra loro, hanno concordato con il modello su quale comportamento sociale si stava verificando.

Consentendo ai robot di mostrare abilità sociali, possiamo ottenere interazioni uomo-robot più positive. Il nuovo modello potrebbe anche consentire agli scienziati di misurare quantitativamente le interazioni sociali. 

Boris Katz è il principale ricercatore e capo dell'InfoLab Group nel Computer Science and Artificial Intelligence Laboratory (CSAIL), nonché membro del Center for Brains, Minds, and Machines (CBMM). 

“I robot vivranno abbastanza presto nel nostro mondo e hanno davvero bisogno di imparare a comunicare con noi in termini umani. Devono capire quando è il momento per loro di aiutare e quando è il momento per loro di vedere cosa possono fare per evitare che accada qualcosa. Questo è un lavoro molto precoce e stiamo appena grattando la superficie, ma sento che questo è il primo serio tentativo di capire cosa significa per gli esseri umani e le macchine interagire socialmente", afferma Katz.

I riparazioni includeva anche il co-autore principale Ravi Tejwani, assistente di ricerca presso CSAIL; co-autore principale Yen-Ling Kuo, uno studente di dottorato CSAIL; Tianmin Shu, postdoc presso il Dipartimento di Cervello e Scienze Cognitive; e l'autore senior Andrei Barbu, ricercatore presso CSAIL. 

Studio delle interazioni sociali

I ricercatori hanno creato un ambiente simulato in cui i robot perseguono obiettivi fisici e sociali mentre navigano su una griglia bidimensionale, che ha permesso al team di studiare l'interazione sociale.

Ai robot sono stati assegnati obiettivi fisici e sociali. Un obiettivo fisico si riferisce all'ambiente, mentre un obiettivo sociale potrebbe essere qualcosa come un robot che indovina cosa sta cercando di fare un altro prima di basare le proprie azioni su quella previsione. 

Il modello viene utilizzato per specificare quali sono gli obiettivi fisici di un robot, quali sono i suoi obiettivi sociali e quanta enfasi dovrebbe essere posta sull'uno rispetto all'altro. Se il robot completa azioni che lo avvicinano al suo obiettivo, viene ricompensato. Se il robot cerca di aiutare il suo compagno, adatta la sua ricompensa in modo che corrisponda a quella dell'altro. Se il robot sta cercando di ostacolare l'altro, regola di conseguenza la sua ricompensa. Un algoritmo decide quali azioni deve intraprendere un robot e utilizza il sistema di ricompensa per guidarlo a raggiungere obiettivi fisici e sociali.

“Abbiamo aperto un nuovo quadro matematico per modellare l'interazione sociale tra due agenti. Se sei un robot e vuoi andare alla posizione X, e io sono un altro robot e vedo che stai cercando di andare alla posizione X, posso cooperare aiutandoti ad arrivare alla posizione X più velocemente. Ciò potrebbe significare spostare X più vicino a te, trovare un altro X migliore o intraprendere qualsiasi azione che dovevi intraprendere in X. La nostra formulazione consente al piano di scoprire il "come"; specifichiamo il 'cosa' in termini di ciò che le interazioni sociali significano matematicamente”, dice Tejwani.

I ricercatori utilizzano il quadro matematico per definire tre tipi di robot. Un robot di livello 0 ha solo obiettivi fisici, mentre un robot di livello 1 ha obiettivi sia fisici che sociali, ma presuppone che tutti gli altri abbiano solo obiettivi fisici. Ciò significa che i robot di livello 1 intraprendono azioni basate sugli obiettivi fisici degli altri, come aiutare o ostacolare. Un robot di livello 2 presuppone che gli altri abbiano obiettivi sociali e fisici e questi robot possono intraprendere azioni più sofisticate. 

Testare il modello

I ricercatori hanno scoperto che il loro modello concordava con ciò che gli umani pensavano delle interazioni sociali che si stavano verificando in ogni fotogramma. 

“Abbiamo questo interesse a lungo termine, sia per costruire modelli computazionali per robot, ma anche per scavare più a fondo negli aspetti umani di questo. Vogliamo scoprire quali funzionalità di questi video vengono utilizzate dagli esseri umani per comprendere le interazioni sociali. Possiamo fare un test oggettivo per la tua capacità di riconoscere le interazioni sociali? Forse c'è un modo per insegnare alle persone a riconoscere queste interazioni sociali e migliorare le proprie capacità. Siamo molto lontani da questo, ma anche solo essere in grado di misurare le interazioni sociali in modo efficace è un grande passo avanti", afferma Barbu.

Il team sta ora lavorando allo sviluppo di un sistema con agenti 3D in un ambiente che consenta più tipi di interazioni. Vogliono anche modificare il modello per includere ambienti in cui le azioni possono fallire e prevedono di incorporare nel modello un pianificatore di robot basato su rete neurale. Infine, cercheranno di eseguire un esperimento per raccogliere dati sulle funzionalità utilizzate dagli esseri umani per determinare se due robot sono impegnati in un'interazione sociale.

 

Alex McFarland è un giornalista e scrittore specializzato in intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup e pubblicazioni di intelligenza artificiale in tutto il mondo.