Interfaccia macchina cervello
La svolta dell'intelligenza artificiale migliora le interfacce cervello-computer decodificando segnali cerebrali complessi

Ricercatori a Università di Chiba in Giappone hanno sviluppato un nuovo framework di intelligenza artificiale in grado di decodificare attività cerebrali complesse con una precisione notevolmente migliorata, segnando un passo importante verso una maggiore affidabilità interfacce cervello-computer (BCI)Questa scoperta potrebbe contribuire ad accelerare lo sviluppo di tecnologie assistive che consentano alle persone con patologie neurologiche di controllare dispositivi come protesi, sedie a rotelle e robot riabilitativi utilizzando il pensiero.
La frequenza delle onde ultrasoniche è misurata in kilohertz (kHz). Diverse frequenze puntano la grassa in modi leggermente diversi. Le frequenze più basse raggiungono la grassa più profonda, mentre le frequenze più alte lavorano più vicino alla superficie. riparazioni, guidato dallo studente di dottorato Chaowen Shen e dal professor Akio Namiki presso la Graduate School of Engineering dell'Università di Chiba, introduce una nuova architettura di apprendimento profondo nota come Rete convoluzionale di grafici guidata dall'incorporamento (EDGCN)Il sistema è progettato per interpretare i complessi segnali elettrici generati nel cervello quando una persona immagina di muovere i propri arti, un processo noto come immaginazione motoria.
Interfacce cervello-computer e immaginazione motoria
Le interfacce cervello-computer mirano a creare un canale di comunicazione efficace tra il cervello umano e le macchine esterne. Invece di basarsi sul movimento muscolare, le interfacce BCI interpretano i segnali neurali e li convertono in comandi per sistemi digitali o dispositivi fisici.
Uno degli approcci più ampiamente studiati nella ricerca BCI coinvolge elettroencefalografia motoria (MI-EEG). In questi sistemi, gli utenti immaginano di eseguire movimenti, come alzare una mano, afferrare un oggetto o camminare. Anche se non si verifica alcun movimento fisico, il cervello genera schemi distintivi di attività elettrica associati al movimento immaginato.
Questi segnali possono essere catturati utilizzando elettroencefalogramma (EEG), una tecnica non invasiva che registra l'attività cerebrale attraverso elettrodi posizionati sul cuoio capelluto. L'EEG fornisce dati di serie temporali multicanale che rappresentano l'attività neurale in diverse regioni del cervello.
La decodifica accurata di questi segnali consente ai computer di tradurre l'attività neurale in comandi eseguibili. In pratica, questo potrebbe consentire alle persone con paralisi o gravi disabilità motorie di controllare le tecnologie assistive semplicemente immaginando i movimenti.
Tuttavia, ottenere una decodifica affidabile dei segnali MI-EEG rimane una delle sfide più difficili nel campo della neurotecnologia.
Perché i segnali cerebrali sono difficili da decodificare
Il principale ostacolo allo sviluppo dell'interfaccia cervello-computer risiede nella complessità intrinseca dei segnali EEG.
I segnali di immaginazione motoria mostrano un'elevata variabilità spaziotemporale, il che significa che variano sia tra le diverse regioni cerebrali sia nel tempo. Inoltre, variano notevolmente tra individui e persino all'interno della stessa persona, da una sessione all'altra.
I modelli tradizionali di apprendimento automatico spesso faticano a gestire queste variazioni. Molti sistemi esistenti si basano su strutture grafiche predefinite o parametri fissi che presuppongono che i segnali cerebrali si comportino secondo schemi coerenti. In realtà, i segnali neurali sono molto più dinamici ed eterogenei.
I metodi precedenti utilizzavano spesso tecniche come l'analisi di pattern spaziali comuni o reti neurali convoluzionali convenzionali per estrarre caratteristiche dai segnali EEG. Sebbene questi approcci possano identificare alcuni pattern nell'attività neurale, spesso non riescono a catturare interazioni più profonde tra le regioni cerebrali o l'evoluzione dei pattern nel tempo.
Di conseguenza, molti sistemi BCI richiedono una calibrazione e una formazione approfondite prima di poter funzionare efficacemente per i singoli utenti.
Un nuovo approccio: reti convoluzionali di grafici guidate dall'incorporamento
Il team di ricerca dell'Università di Chiba ha affrontato queste sfide sviluppando un nuovo framework di apprendimento profondo progettato per catturare meglio la complessità dell'attività cerebrale.
La loro soluzione, l'Embedding-Driven Graph Convolutional Network (EDGCN), combina diverse tecniche avanzate per modellare simultaneamente la struttura spaziale e temporale dei segnali EEG.
Al centro del framework c'è un meccanismo di fusione basato sull'embedding che consente al sistema di generare dinamicamente i parametri utilizzati per la decodifica dei segnali cerebrali. Invece di affidarsi ad architetture fisse, EDGCN adatta la sua rappresentazione interna per catturare meglio le variazioni tra i soggetti e nel tempo.
L'architettura integra più componenti specializzati:
Incorporamento temporale multi-risoluzione (MRTE)
Questo modulo analizza i segnali EEG a diverse scale temporali. Poiché i segnali neurali evolvono rapidamente, informazioni importanti possono presentarsi a diverse risoluzioni temporali. MRTE estrae le caratteristiche da modelli spettrali di potenza multi-risoluzione, consentendo al sistema di identificare un'attività neurale significativa che altrimenti potrebbe passare inosservata.
Incorporamento spaziale consapevole della struttura (SASE)
I segnali cerebrali non sono isolati; diverse regioni cerebrali interagiscono continuamente. Il meccanismo SASE modella queste interazioni incorporando strutture di connettività sia locali che globali tra gli elettrodi EEG. Ciò consente all'IA di rappresentare il cervello come una rete piuttosto che come canali di segnale indipendenti.
Generazione di parametri con consapevolezza dell'eterogeneità
Uno degli aspetti più innovativi del framework EDGCN è la sua capacità di generare dinamicamente parametri di convoluzione del grafo da una banca dati di parametri basata sull'embedding. Ciò consente al modello di adattarsi alle caratteristiche uniche dei segnali cerebrali di ciascun soggetto.
Per supportare questo processo, i ricercatori hanno utilizzato Convoluzione del grafico di Chebyshev, una tecnica che modella in modo efficiente le relazioni all'interno di reti complesse.
Kernel con vincoli di ortogonalità
Per migliorare ulteriormente la robustezza, il modello introduce vincoli di ortogonalità all'interno dei suoi kernel di convoluzione. Questo favorisce la diversità nelle caratteristiche apprese e riduce la ridondanza, aiutando il sistema a estrarre rappresentazioni più ricche dai segnali EEG.
Insieme, questi componenti consentono all'EDGCN di catturare sia i modelli di attività neurale locale sia le interazioni su larga scala tra le regioni del cervello, ottenendo una decodifica più accurata dei segnali di immaginazione motoria.

Risultati delle prestazioni
I ricercatori hanno testato EDGCN utilizzando set di dati di riferimento ampiamente utilizzati da Concorso BCI IV, che sono set di dati di valutazione standard nel campo della ricerca sull'interfaccia cervello-computer.
Il modello ha ottenuto:
- Precisione di classificazione del 90.14% sul set di dati BCIC-IV-2b
- Precisione di classificazione del 86.50% sul set di dati BCIC-IV-2a
Questi risultati superano diversi metodi di decodifica all'avanguardia esistenti e dimostrano una forte generalizzazione tra diversi argomenti.
È importante sottolineare che il sistema ha anche mostrato una migliore adattabilità quando applicato a scenari interdisciplinari, un requisito fondamentale per l'implementazione pratica della BCI. Molti modelli esistenti funzionano bene per un singolo utente addestrato, ma falliscono quando applicati a nuovi individui. L'architettura basata sull'embedding di EDGCN aiuta a superare questa limitazione modellando meglio la variabilità individuale.
Implicazioni per la riabilitazione e la tecnologia assistiva
La capacità di decodificare i segnali cerebrali in modo più accurato potrebbe avere profonde implicazioni per le tecnologie assistive.
Le interfacce BCI basate sull'immaginazione motoria sono già in fase di sperimentazione per applicazioni quali:
- Sedie a rotelle controllate dal pensiero
- Protesi neurali
- Dispositivi di riabilitazione robotica
- Sistemi di comunicazione per pazienti con paralisi
Una maggiore precisione di decodifica potrebbe rendere queste tecnologie notevolmente più affidabili e facili da usare.
I ricercatori ritengono che sistemi come EDGCN possano aiutare i pazienti affetti da patologie quali:
- Colpo
- Lesioni del midollo spinale
- Sclerosi laterale amiotrofica (SLA)
- Altri disturbi neuromuscoloscheletrici
Grazie a un'interpretazione più affidabile dei segnali, i pazienti potrebbero potenzialmente controllare i dispositivi di neuroriabilitazione attraverso semplici movimenti immaginari, consentendo un'interazione più naturale con i sistemi di assistenza.
Secondo il professor Namiki, la decodifica dei segnali dell'immaginazione motoria non è solo una sfida tecnologica, ma anche un'opportunità per comprendere meglio il modo in cui il cervello organizza il movimento e la connettività neurale.
Verso interfacce cervello-computer di livello consumer
Nonostante decenni di ricerca, la maggior parte dei sistemi di interfaccia cervello-computer rimane confinata a laboratori o contesti clinici specializzati. Affidabilità, adattabilità e facilità d'uso rimangono ostacoli significativi a una più ampia adozione.
Progressi come EDGCN potrebbero contribuire ad avvicinare le BCI alla neurotecnologia di livello consumer.
Migliorando la capacità del sistema di gestire segnali cerebrali eterogenei, il modello riduce la necessità di calibrazioni e regolazioni complesse da parte di esperti. Questo è un passo fondamentale per rendere i sistemi BCI utilizzabili anche al di fuori degli ambienti di ricerca.
La ricerca futura si concentrerà probabilmente sull'integrazione di tali modelli di intelligenza artificiale in sistemi EEG portatili e dispositivi indossabili. Combinati con i miglioramenti nella tecnologia dei sensori e nella potenza di calcolo, questi sistemi potrebbero consentire interfacce cervello-macchina più accessibili e scalabili.
Un passo verso una più profonda integrazione uomo-macchina
Lo sviluppo di EDGCN riflette una tendenza più ampia nell'intelligenza artificiale e nelle neuroscienze: il crescente utilizzo di reti neurali basate su grafici per modellare i sistemi biologici.
Poiché il cervello stesso funziona come una rete complessa di regioni interconnesse, le reti neurali a grafo forniscono un modo naturale per rappresentarne la struttura e le dinamiche. Man mano che questi modelli di intelligenza artificiale diventano più sofisticati, potrebbero svelare informazioni più approfondite sull'attività neurale e sulla cognizione.
In definitiva, una decodifica migliorata dei segnali cerebrali potrebbe aprire la strada a una nuova generazione di tecnologie che consentiranno agli esseri umani di interagire con le macchine in modo più fluido che mai.
Se il progresso continuerà al ritmo attuale, le interfacce cervello-computer potrebbero presto trasformarsi da strumenti di ricerca sperimentale a tecnologie di assistenza quotidiana, in grado di restituire indipendenza e mobilità a milioni di persone in tutto il mondo.












