Robotica
Avanzare dell’Intelligenza Artificiale Incorporata: Come Meta Sta Portando il Tocco e la Destrezza Umana all’AI
L’AI è arrivata a lungo nella percezione visiva e nell’elaborazione del linguaggio. Tuttavia, queste capacità non sono sufficienti per costruire sistemi che possano interagire con il mondo fisico. Gli esseri umani gestiscono oggetti o eseguono movimenti controllati utilizzando il senso del tatto. Sentiamo la texture, percepiamo la temperatura e valutiamo il peso per guidare ogni azione con precisione. Questo feedback tattile ci consente di manipolare oggetti fragili, utilizzare strumenti con controllo e eseguire compiti intricati in modo fluido.
Meta, nota per il suo lavoro nella realtà virtuale e aumentata, sta ora affrontando la sfida di creare un’AI che possa interagire con il mondo fisico in modo simile a un essere umano. Attraverso la sua iniziativa FAIR Robotics, Meta sta sviluppando strumenti e framework open-source per migliorare il senso del tatto e l’agilità fisica dei robot. Questi sforzi potrebbero portare allo sviluppo di un’AI incorporata — sistemi che non vedono solo, ma possono anche sentire e manipolare oggetti come fanno gli esseri umani.
Che Cos’è l’AI Incorporata?
L’AI incorporata combina l’interazione fisica con l’intelligenza artificiale, consentendo alle macchine di sentire, rispondere e interagire naturalmente con l’ambiente circostante. Invece di “vedere” o “sentire” solo input, consente ai sistemi AI di sentire e agire nel mondo. Pensate a un robot che possa sentire la pressione che applica a un oggetto, regolare la sua presa e muoversi con agilità. L’AI incorporata sposta l’AI dagli schermi e dagli altoparlanti nel mondo fisico, rendendola capace di manipolare oggetti, eseguire compiti e interagire in modo più significativo con le persone.
Ad esempio, un robot costruito sull’AI incorporata potrebbe aiutare una persona anziana a raccogliere oggetti fragili senza danneggiarli. Nel settore sanitario, potrebbe assistere i medici tenendo gli strumenti con precisione durante un’operazione. Questo potenziale si estende ben oltre i bracci robotici nei laboratori o le braccia automatizzate nelle fabbriche; si tratta di creare macchine che comprendono e rispondono all’ambiente fisico in tempo reale.
L’Approccio di Meta all’AI Incorporata
Meta si concentra su tre aree chiave per portare l’AI incorporata a un tocco simile a quello umano. In primo luogo, l’azienda sta sviluppando tecnologie di sensazione tattile avanzate che consentono alle macchine di rilevare cose come pressione, texture e temperatura. In secondo luogo, Meta sta creando modelli di percezione del tatto che consentono all’AI di comprendere e reagire a questi segnali. Infine, Meta sta costruendo una piattaforma di sviluppo tattile che integra più sensori con questi modelli di percezione, offrendo un sistema completo per la costruzione di AI abilitate al tatto. Ecco come Meta sta guidando i progressi nell’AI incorporata in ciascuna di queste aree.
Meta Digit 360: Sensazione Tattile a Livello Umano
Meta ha introdotto Digit 360, una tecnologia di sensazione tattile progettata per dare all’AI incorporata un senso del tatto simile a quello umano. Con oltre 18 funzionalità di sensazione, può rilevare vibrazioni, calore e anche sostanze chimiche sulle superfici. Dotato di un chip AI, il dito indice elabora i dati del tatto istantaneamente, consentendo risposte rapide agli input come il calore di una stufa o la punta di un ago. Questa tecnologia agisce come un “sistema nervoso periferico” all’interno dell’AI incorporata, simulando risposte riflesse simili a quelle umane. Meta ha sviluppato questo dito indice con un sistema ottico unico che contiene oltre 8 milioni di taxels che possono catturare il tatto da ogni angolo. Rileva dettagli minuscoli, fino a forze di un millinewton, dando all’AI incorporata una sensibilità finemente regolata all’ambiente.
Meta Sparsh: La Fondazione per la Percezione Tattile
Meta sta migliorando le capacità di percezione del tatto per aiutare l’AI a comprendere e rispondere alle sensazioni fisiche. Chiamato con la parola sanscrita per “tatto”, Sparsh agisce come un “cervello del tatto” per l’AI incorporata. Il modello consente alle macchine di interpretare segnali tattili complessi come pressione e presa.
Una delle caratteristiche di Sparsh è la sua versatilità. I sistemi tattili tradizionali impiegano modelli separati per ogni compito, facendo affidamento pesantemente su dati etichettati e sensori specifici. Sparsh cambia completamente questo approccio. Come modello generale, si adatta a vari sensori e compiti. Impara modelli di tatto utilizzando l’apprendimento auto-supervisionato (SSL) su un database enorme di oltre 460.000 immagini tattili — senza necessità di dati etichettati.
Meta ha anche introdotto TacBench, un nuovo benchmark con sei compiti basati sul tatto per valutare le capacità di Sparsh. Meta afferma che Sparsh ha superato i modelli tradizionali del 95,1%, specialmente in scenari a bassi dati. Versioni di Sparsh costruite sugli architetture I-JEPA e DINO di Meta hanno dimostrato capacità notevoli in compiti come la stima della forza, la rilevazione dello scivolamento e la manipolazione complessa.
Meta Digit Plexus: Una Piattaforma per lo Sviluppo dei Sistemi Tattili
Meta ha introdotto Digit Plexus per integrare tecnologie di sensazione e modelli di percezione tattile per creare un sistema AI incorporata. La piattaforma combina sensori del dito indice e del palmo all’interno di una mano robotica per abilitare risposte tattili più coordinate. Questo setup consente all’AI incorporata di elaborare il feedback sensoriale e adattare le sue azioni in tempo reale, come fa una mano umana che si muove e reagisce.
Standardizzando il feedback tattile in tutta la mano, Digit Plexus migliora la precisione e il controllo dell’AI incorporata. Questo sviluppo è particolarmente vitale in campi come la produzione e la sanità, dove la manipolazione accurata è essenziale. La piattaforma collega sensori come il dito indice e ReSkin a un sistema di controllo, semplificando la raccolta dei dati, il controllo e l’analisi — tutto attraverso un solo cavo.
Meta sta rilasciando i progetti software e hardware per Digit Plexus alla comunità open-source. L’obiettivo è quello di favorire la collaborazione e accelerare la ricerca sull’AI incorporata, guidando l’innovazione e i progressi in questi campi.
Promuovere la Ricerca e lo Sviluppo dell’AI Incorporata
Meta sta avanzando non solo la tecnologia, ma anche le risorse per promuovere la ricerca e lo sviluppo dell’AI incorporata. Un’iniziativa chiave è lo sviluppo di benchmark per valutare i modelli AI. Uno di questi benchmark, PARTNR (Planning And Reasoning Tasks in humaN-Robot collaboration), valuta come i modelli AI interagiscono con gli esseri umani durante i compiti domestici. Utilizzando il simulatore Habitat 3.0, PARTNR fornisce un ambiente realistico in cui i robot aiutano con compiti come la pulizia e la cucina. Con oltre 100.000 compiti basati sul linguaggio, si propone di accelerare i progressi nell’AI incorporata.
Oltre alle iniziative interne, Meta sta collaborando con organizzazioni come GelSight Inc. e Wonik Robotics per accelerare l’adozione delle tecnologie di sensazione tattile. GelSight distribuirà i sensori Digit 360, mentre Wonik Robotics produrrà la mano Allegro, che integra la tecnologia Digit Plexus. Facendo queste tecnologie disponibili attraverso piattaforme open-source e partnership, Meta sta aiutando a creare un ecosistema che potrebbe portare a innovazioni nel settore sanitario, nella produzione e nell’assistenza domestica.
Il Punto Chiave
Meta sta avanzando l’AI incorporata, portandola oltre la sola vista e il suono per includere il senso del tatto. Con innovazioni come Digit 360 e Sparsh, i sistemi AI stanno acquisendo la capacità di sentire e rispondere all’ambiente circostante con precisione. Condividendo queste tecnologie con la comunità open-source e collaborando con organizzazioni chiave, Meta sta aiutando ad accelerare lo sviluppo della sensazione tattile. Questo progresso potrebbe portare a break-through in campi come la sanità, la produzione e l’assistenza domestica, rendendo l’AI più capace e reattiva nei compiti del mondo reale.










