Robotica
Unity fa avanzare l'industria della robotica con nuove versioni

Unity è una delle piattaforme leader per lo sviluppo e la gestione di contenuti 3D in tempo reale, o RT3D. L'azienda ha recentemente annunciato la sua Object Pose Estimation, che mira a migliorare l'industria della robotica, in particolare in ambito industriale, attraverso l'uso di tecnologie di visione artificiale e simulazione.
Dimostrazione della posa dell'oggetto
La dimostrazione della posa dell'oggetto si è svolta insieme a una dimostrazione corrispondente, mostrando come i robot possono apprendere attraverso dati sintetici.
Il Dr. Danny Lange è Senior Vice President of Artificial Intelligence presso Unity.
"Questo è un potente esempio di un sistema che apprende invece di essere programmato e, poiché apprende dai dati sintetici, è in grado di catturare schemi molto più sfumati di quanto qualsiasi programmatore possa mai fare", ha affermato. "La stratificazione delle nostre tecnologie mostra come stiamo oltrepassando un limite e stiamo iniziando a occuparci di qualcosa che è veramente AI e, in questo caso, dimostrando le efficienze possibili nell'addestramento dei robot".
Quando il dott. Lange parla di stratificazione delle tecnologie aziendali, si riferisce in parte alle recenti versioni di Unity che supportano il Robot Operating System (ROS), un framework flessibile per lo sviluppo di software per robot.
Basandosi sulle versioni precedenti
Prima del rilascio della demo Object Pose Estimation, Unity ha rilasciato URDF Importer dell'azienda, un pacchetto Unity open source, insieme a ROS-TCP-Connector, che mira a ridurre drasticamente la latenza dei messaggi tra i nodi ROS e Unity. Ciò consente al robot che opera in un ambiente simulato di agire quasi in tempo reale.
Spesso si fa affidamento sulla tecnologia di simulazione per testare applicazioni in situazioni pericolose, costose o rare. Utilizzando la simulazione, le applicazioni possono essere convalidate prima dell'implementazione sul robot, consentendo il rilevamento precoce di potenziali problemi. Combinando il motore fisico integrato di Unity e Unity Editor, è possibile creare un numero infinito di ambienti virtuali.
Con la combinazione di questi strumenti, la dimostrazione ha mostrato come è possibile creare grandi quantità di dati di addestramento sintetici ed etichettati. È stato quindi utilizzato per addestrare un semplice modello di deep learning per prevedere la posizione di un cubo. La demo ha fornito un tutorial per coloro che desiderano ricreare il progetto.
"Con Unity, non solo abbiamo democratizzato la creazione di dati, ma abbiamo anche fornito l'accesso a un sistema interattivo per la simulazione di interazioni avanzate in un ambiente virtuale", ha continuato Lange.
“È possibile sviluppare sistemi di controllo per un veicolo autonomo, ad esempio, o qui per bracci robotici altamente costosi, senza il rischio di danneggiare le apparecchiature o di aumentare drasticamente i costi delle installazioni industriali. Essere in grado di dimostrare il rischio delle applicazioni previste in un ambiente virtuale ad alta fedeltà farà risparmiare tempo e denaro per molti settori pronti a essere trasformati dalla robotica combinata con l’intelligenza artificiale e l’apprendimento automatico”.












