Connect with us

Robotica

La capacità del cervello umano di elaborare la luce potrebbe portare a una migliore sensibilità robotica

mm

Il cervello umano spesso serve come ispirazione per l’intelligenza artificiale (AI) e questo è di nuovo il caso, poiché un team di ricercatori dell’esercito è riuscito a migliorare la sensibilità robotica studiando come il cervello umano elabora la luce brillante e i contrasti. Questo nuovo sviluppo può aiutare a portare alla collaborazione tra agenti autonomi e umani.

Secondo i ricercatori, è importante che la sensibilità delle macchine sia efficace in ambienti in continua evoluzione, il che porta a sviluppi nell’autonomia.

La ricerca è stata pubblicata sulla Journal of Vision

Capacità di visualizzazione di 100.000 a 1

Andre Harrison è un ricercatore presso il U.S. Army Combat Capabilities Development Command’s Army Research Laboratory. 

“Quando sviluppiamo algoritmi di apprendimento automatico, le immagini del mondo reale vengono di solito compressi in un range più stretto, come fa una fotocamera cellulare, in un processo chiamato mapping del tono,” ha detto Harrison. “Ciò può contribuire alla fragilità degli algoritmi di visione della macchina perché si basano su immagini artificiali che non corrispondono esattamente ai modelli che vediamo nel mondo reale.” 

Il team di ricercatori ha sviluppato un sistema con una capacità di visualizzazione di 100.000 a 1, che ha consentito loro di ottenere informazioni sul processo di calcolo del cervello nel mondo reale. Secondo Harrison, ciò ha permesso al team di implementare la resilienza biologica nei sensori.

Gli algoritmi di visione attuali hanno ancora un lungo cammino da percorrere prima di diventare ideali. Ciò è dovuto al range di luminanza limitato, intorno a un rapporto di 100 a 1, a causa del fatto che gli algoritmi si basano su studi umani e animali con monitor del computer. Il rapporto di 100 a 1 è meno che ideale nel mondo reale, dove la variazione può raggiungere fino a 100.000 a 1. Questo rapporto alto è chiamato gamma dinamica alta, o HDR.

Il dottor Chou Po Hung è un ricercatore dell’esercito. 

“I cambiamenti e le variazioni significative nella luce possono sfidare i sistemi dell’esercito — i droni che volano sotto una foresta possono essere confusi dai cambiamenti di riflessione quando il vento soffia attraverso le foglie, o i veicoli autonomi che guidano su un terreno accidentato potrebbero non riconoscere le buche o altri ostacoli perché le condizioni di illuminazione sono leggermente diverse da quelle per cui gli algoritmi di visione sono stati addestrati,” ha detto Hung. 

La capacità di compressione del cervello umano

Il cervello umano è in grado di comprimere automaticamente l’input di 100.000 a 1 in un range più stretto, ed è questo che consente agli esseri umani di interpretare la forma. Il team di ricercatori ha cercato di capire questo processo studiando l’elaborazione visiva precoce sotto HDR. Il team ha guardato verso caratteristiche semplici come la luminanza HDR. 

“Il cervello ha più di 30 aree visive e abbiamo ancora una comprensione solo rudimentale di come queste aree processino l’immagine dell’occhio in una comprensione della forma 3D,” ha continuato Hung. “I nostri risultati con gli studi sulla luminanza HDR, basati sul comportamento umano e sulle registrazioni del cuoio capelluto, mostrano solo quanto poco sappiamo veramente su come colmare il divario tra laboratorio e ambienti del mondo reale. Ma questi risultati ci fanno uscire da quella scatola, mostrando che le nostre ipotesi precedenti basate su monitor del computer hanno una capacità limitata di generalizzare al mondo reale e rivelano principi che possono guidare la nostra modellazione verso i meccanismi corretti.” 

Scoprendo come la luce e i bordi di contrasto interagiscono nella rappresentazione visiva del cervello, gli algoritmi saranno più efficaci nel ricostruire il mondo 3D in condizioni di luminanza del mondo reale. Quando si stima la forma 3D da informazioni 2D, ci sono sempre ambiguità, ma questa nuova scoperta consente di correggerle.

“Attraverso milioni di anni di evoluzione, i nostri cervelli hanno sviluppato scorciatoie efficaci per ricostruire la 3D dalle informazioni 2D,” ha detto Hung. “È un problema vecchio di decenni che continua a sfidare gli scienziati della visione della macchina, anche con i recenti progressi nell’AI.”

La scoperta del team è anche importante per lo sviluppo di dispositivi AI come il radar e la comprensione del discorso remoto, che utilizzano la sensibilità a gamma dinamica ampia. 

“La questione della gamma dinamica non è solo un problema di sensibilità,” ha detto Hung. “Potrebbe anche essere un problema più generale nel calcolo del cervello perché i singoli neuroni hanno decine di migliaia di input. Come si costruiscono algoritmi e architetture che possono ascoltare gli input giusti in contesti diversi? Speriamo che, lavorando su questo problema a livello sensoriale, possiamo confermare che siamo sulla strada giusta, in modo da avere gli strumenti giusti quando costruiremo AI più complesse.” 

Alex McFarland è un giornalista e scrittore di intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup di intelligenza artificiale e pubblicazioni in tutto il mondo.