mozzicone L'IA di Google insegna ai robot come muoversi osservando i cani - Unite.AI
Seguici sui social

Robotica

L'intelligenza artificiale di Google insegna ai robot come muoversi osservando i cani

mm
aggiornato on

Anche alcuni dei robot più avanzati oggi si muovono ancora in modi un po' goffi e a scatti. Per far sì che i robot si muovano in modi più realistici e fluidi, i ricercatori di Google hanno sviluppato un sistema di intelligenza artificiale in grado di imparare dai movimenti di animali reali. Il team di ricerca di Google ha pubblicato a carta prestampata che ha dettagliato il loro approccio alla fine della scorsa settimana. Nella carta e un allegato post sul blog, il gruppo di ricerca descrive la logica alla base del sistema. Gli autori del documento ritengono che dotare i robot di un movimento più naturale potrebbe aiutarli a svolgere compiti del mondo reale che richiedono movimenti precisi, come la consegna di oggetti tra i diversi livelli di un edificio.

Come riportato da VentureBeat, il team di ricerca ha utilizzato l'apprendimento per rinforzo per addestrare i propri robot. I ricercatori hanno iniziato raccogliendo clip di animali reali in movimento e utilizzando tecniche di apprendimento per rinforzo (RL) per spingere i robot a imitare i movimenti degli animali nei video clip. In questo caso, i ricercatori hanno addestrato i robot su clip di un cane, progettato in un simulatore di fisica, istruendo un robot Unitree Laikago a quattro zampe a imitare i movimenti del cane. Dopo che il robot è stato addestrato, è stato in grado di eseguire movimenti complessi come saltare, girare e camminare rapidamente, a una velocità di circa 2.6 miglia all'ora.

I dati di addestramento consistevano in circa 200 milioni di campioni di cani in movimento, monitorati in una simulazione fisica. I diversi movimenti sono stati quindi eseguiti attraverso funzioni e politiche di ricompensa con cui gli agenti hanno appreso. Dopo che le politiche sono state create nella simulazione, sono state trasferite nel mondo reale utilizzando una tecnica chiamata adattamento dello spazio latente. Poiché i simulatori fisici utilizzati per addestrare i robot potevano solo approssimare alcuni aspetti del movimento del mondo reale, i ricercatori hanno applicato casualmente varie perturbazioni alla simulazione, allo scopo di simulare il funzionamento in condizioni diverse.

Secondo il team di ricerca, sono stati in grado di adattare le politiche di simulazione ai robot del mondo reale utilizzando solo otto minuti di dati raccolti da 50 diverse prove. I ricercatori sono riusciti a dimostrare che i robot del mondo reale erano in grado di imitare una varietà di movimenti diversi e specifici come trottare, girarsi, saltare e camminare. Sono stati persino in grado di imitare le animazioni create da artisti dell'animazione, come una combinazione di salto e svolta.

I ricercatori riassumono i risultati nel documento:

“Dimostriamo che sfruttando i dati di movimento di riferimento, un singolo approccio basato sull'apprendimento è in grado di sintetizzare automaticamente i controller per un repertorio diversificato [di] comportamenti per i robot con le gambe. Incorporando tecniche di adattamento del dominio efficienti nel processo di formazione, il nostro sistema è in grado di apprendere politiche adattive nella simulazione che possono quindi essere rapidamente adattate per l'implementazione nel mondo reale.

Le politiche di controllo utilizzate durante il processo di apprendimento per rinforzo avevano i loro limiti. A causa dei vincoli imposti dall'hardware e dagli algoritmi, c'erano alcune cose che i robot semplicemente non potevano fare. Non erano in grado di correre o fare grandi salti, per esempio. Inoltre, le politiche apprese non mostravano la stessa stabilità rispetto ai movimenti progettati manualmente. Il team di ricerca vuole portare avanti il ​​lavoro rendendo i controllori più robusti e in grado di apprendere da diversi tipi di dati. Idealmente, le versioni future del framework saranno in grado di apprendere dai dati video.