Connect with us

Robot con sentimenti: come l’AI tattile potrebbe trasformare le relazioni uomo-robot

Robotica

Robot con sentimenti: come l’AI tattile potrebbe trasformare le relazioni uomo-robot

mm

I robot senzienti sono stati un elemento fondamentale della fantascienza per decenni, sollevando questioni etiche affascinanti e mettendo in luce le barriere tecniche della creazione di una coscienza artificiale. Gran parte di ciò che il mondo tecnologico ha raggiunto nell’intelligenza artificiale (AI) oggi è grazie ai recenti progressi nell’apprendimento profondo, che consente alle macchine di apprendere automaticamente durante l’addestramento.

Questa svolta elimina la necessità di un’attenta e manuale progettazione delle caratteristiche – un motivo per cui l’apprendimento profondo si distingue come una forza trasformativa nell’AI e nell’innovazione tecnologica.

Sulla scia di questo slancio, Meta – che possiede Facebook, WhatsApp e Instagram – sta entrando in un nuovo territorio con tecnologie di “AI tattile” avanzate. La società ha recentemente introdotto tre nuovi strumenti alimentati da AI – Sparsh, Digit 360 e Digit Plexus – progettati per dare ai robot una forma di sensibilità al tatto che imita da vicino la percezione umana.

L’obiettivo? Creare robot che non solo mimano compiti, ma si impegnano attivamente con il loro ambiente, simili a come gli esseri umani interagiscono con il mondo.

Sparsh, opportunamente chiamato dopo la parola sanscrita per “tatto”, è un modello di AI generico che consente ai robot di interpretare e reagire a segnali sensoriali in tempo reale. Allo stesso modo, il sensore Digit 360 è un dito artificiale per robot che può aiutare a percepire il tatto e le sensazioni fisiche così minute come un tocco di ago o cambiamenti di pressione. Il Digit Plexus agirà come un ponte, fornendo un framework standardizzato per l’integrazione di sensori tattili in vari progetti robotici, rendendo più facile la cattura e l’analisi dei dati tattili. Meta ritiene che questi strumenti alimentati da AI consentiranno ai robot di affrontare compiti intricati che richiedono un “tocco umano”, specialmente in settori come la sanità, dove la sensibilità e la precisione sono fondamentali.

Tuttavia, l’introduzione di robot sensoriali solleva questioni più ampie: potrebbe questa tecnologia sbloccare nuovi livelli di collaborazione o introdurre complessità che la società potrebbe non essere in grado di gestire?

“Mentre i robot sbloccano nuovi sensi e guadagnano un alto grado di intelligenza e autonomia, dovremo iniziare a considerare il loro ruolo nella società,” Ali Ahmed, co-fondatore e CEO di Robomart, mi ha detto. “Gli sforzi di Meta sono un primo passo importante verso la fornitura di sensi simili a quelli umani. Mentre gli esseri umani diventano sempre più intimi con i robot, inizieranno a trattarli come partner di vita, compagni e addirittura a costruire una vita esclusivamente con loro.”

Un framework per l’armonia uomo-robot, il futuro?

Insieme ai suoi progressi nell’AI tattile, Meta ha anche presentato il benchmark PARTNR, un framework standardizzato per valutare la collaborazione uomo-robot su larga scala. Progettato per testare interazioni che richiedono pianificazione, ragionamento e esecuzione collaborativa, PARTNR consentirà ai robot di navigare sia ambienti strutturati che non strutturati insieme agli esseri umani. Integrando grandi modelli linguistici (LLM) per guidare queste interazioni, PARTNR può valutare i robot su elementi critici come coordinazione e tracciamento dei compiti, spostandoli da semplici “agenti” a veri e propri “partner” in grado di lavorare fluidamente con i loro omologhi umani.

“L’attuale documento è molto limitato per la valutazione e anche nel Natural Language Processing (NLP), ci è voluto un considerevole tempo perché i LLM fossero perfezionati per il mondo reale. Sarà un enorme esercizio generalizzare per la popolazione di 8,2 miliardi con un ambiente di laboratorio limitato”, Ram Palaniappan, CTO di TEKsystems, mi ha detto. “Ci sarà bisogno di uno sforzo più ampio e dedicato per aumentare questa ricerca e arrivare a un pilotaggio funzionante.”

Per portare questi progressi dell’AI tattile sul mercato, Meta ha collaborato con GelSight Inc. e Wonik Robotics. GelSight sarà responsabile della produzione del sensore Digit 360, che è previsto per il prossimo anno e fornirà alla comunità di ricerca l’accesso a capacità tattili avanzate. Wonik Robotics, invece, si occuperà della produzione della prossima generazione di Allegro Hand, che integra Digit Plexus per consentire ai robot di eseguire compiti intricati e sensibili al tatto con un nuovo livello di precisione. Tuttavia, non tutti sono convinti che questi progressi siano un passo nella direzione giusta.

“Sebbene creda che l’aggiunta di capacità di sensazione possa essere significativa per i robot per comprendere l’ambiente, credo che gli attuali casi d’uso siano più legati ai robot per i consumatori di massa e al miglioramento della loro interazione,” Agustin Huerta, SVP di Digital Innovation per il Nord America di Globant, mi ha detto. “Non credo che stiamo per avvicinarci a dare loro sensazioni umane, né che sia necessario. Piuttosto, agirà come un punto di dati aggiuntivo per un processo decisionale.”

I progressi di Meta nell’AI tattile riflettono una tendenza più ampia in Europa, dove paesi come Germania, Francia e Regno Unito stanno spingendo i confini della sensazione e della consapevolezza robotica. Ad esempio, il programma Horizon 2020 dell’UE sostiene una serie di progetti volti a spingere i confini della robotica, dalla sensazione tattile e dalla consapevolezza ambientale alle capacità decisionali. Inoltre, l’Istituto di Tecnologia di Karlsruhe in Germania ha recentemente introdotto ARMAR-6, un robot umanoide progettato per ambienti industriali. ARMAR-6 è in grado di utilizzare strumenti come trapani e martelli e presenta capacità di intelligenza artificiale che gli consentono di imparare a prendere oggetti e assistere i colleghi umani.

Tuttavia, Dr. Peter Gorm Larsen, Vice-Capodipartimento del Dipartimento di Ingegneria Elettrica e Informatica dell’Università di Aarhus in Danimarca, e coordinatore del progetto RoboSAPIENS finanziato dall’UE, avverte che Meta potrebbe stare trascurando una sfida chiave: il divario tra percezioni virtuali e realtà fisica in cui operano i robot autonomi, specialmente in termini di sicurezza ambientale e umana.

“I robot non hanno intelligenza allo stesso modo delle creature viventi,” mi ha detto. “Le aziende tecnologiche hanno un obbligo morale di assicurarsi che i loro prodotti rispettino i confini etici. Personalmente, sono più preoccupato per la potenziale convergenza di un feedback tattile avanzato con occhiali 3D compatti come quelli regolari.”

Siamo pronti per i robot che “sentono”?

Dr. Larsen ritiene che la vera sfida non siano i sensori di AI tattile in sé, ma piuttosto come vengono impiegati in ambienti autonomi. “Nell’UE, la Direttiva Macchine attualmente limita l’uso di controlli guidati da AI nei robot. Ma, a mio parere, è un requisito eccessivamente stringente, e speriamo di poter dimostrare che nel progetto RoboSAPIENS che sto attualmente coordinando.”

Naturalmente, i robot stanno già collaborando con gli esseri umani in vari settori in tutto il mondo. Ad esempio, Kiwibot ha aiutato le aziende di logistica che affrontano carenza di manodopera nei magazzini, e la società svizzera Anybotics ha recentemente raccolto 60 milioni di dollari per portare più robot industriali negli Stati Uniti, secondo TechCrunch. Dovremmo aspettarci che l’intelligenza artificiale continui a permeare i settori, poiché “l’AI accelera la produttività in compiti ripetibili come il refactoring del codice, affronta il debito tecnico e i test, e trasforma il modo in cui i team globali collaborano e innovano,” ha detto Vikas Basra, Global Head, Intelligent Engineering Practice, Ness Digital Engineering.

Allo stesso tempo, la sicurezza di questi robot – ora e nel loro potenziale futuro “senziente” – è la principale preoccupazione per far progredire l’industria.

Ha detto Matan Libis, VP of product at SQream, un’azienda di elaborazione dati avanzata, in The Observer, “La prossima missione importante per le aziende sarà stabilire il posto dell’AI nella società – i suoi ruoli e responsabilità… Dobbiamo essere chiari sui suoi confini e su dove aiuta veramente. A meno che non identifichiamo i limiti dell’AI, ci troveremo ad affrontare crescenti preoccupazioni sulla sua integrazione nella vita quotidiana.”

Mentre l’AI evolve per includere la sensazione tattile, si pone la questione se la società sia pronta per robot che “sentono”. Gli esperti sostengono che una superintelligenza puramente basata sul software potrebbe raggiungere un limite; per raggiungere una comprensione avanzata e vera, l’AI deve percepire, sentire e agire all’interno dei nostri ambienti fisici, fondendo modalità per una comprensione più profonda del mondo – qualcosa che i robot sono unicamente in grado di realizzare. Tuttavia, la superintelligenza da sola non equivale alla coscienza. “Non dobbiamo antropomorfizzare uno strumento al punto di associarlo a una creatura senziente se non ha dimostrato di essere capace di esserlo,” ha spiegato Ahmed. “Tuttavia, se un robot supera il test per la coscienza, allora dovrebbe essere riconosciuto come un essere vivente senziente e quindi avremo la responsabilità morale e fondamentale di concedergli certe libertà e diritti come essere senziente.”

Le implicazioni dell’AI tattile di Meta sono significative, ma se queste tecnologie porteranno a un cambiamento rivoluzionario o varcheranno linee etiche rimane incerto. Per ora, la società è lasciata a riflettere su un futuro in cui l’AI non solo vede e sente, ma anche tocca – potenzialmente ridefinendo la nostra relazione con le macchine in modi che stiamo solo iniziando a immaginare.

“Non credo che aumentare le capacità di sensazione dell’AI oltrepassi i confini dell’etica. È più legato a come quella sensazione viene successivamente utilizzata per prendere decisioni o guidare le decisioni degli altri,” ha detto Huerta. “La rivoluzione dei robot non sarà diversa dalla rivoluzione industriale. Affetterà le nostre vite e ci lascerà in uno stato che credo possa far prosperare l’umanità. Perché ciò accada, dobbiamo iniziare a educarci e alle generazioni future su come coltivare una relazione sana tra esseri umani e robot.”

Victor Dey è un editore tecnico e scrittore che copre A.I., crypto, data science, metaverse e cybersecurity all'interno del settore aziendale. Vanta mezza decade di esperienza nei media e nell'AI lavorando per noti outlet mediatici come VentureBeat, Metaverse Post, Observer e altri. Victor ha guidato studenti fondatori in programmi di accelerazione presso università leader come l'Università di Oxford e l'Università della California meridionale, e detiene un Master in data science e analisi.