Følg os

Brain Machine Interface

Brain-Machine Interface kunne hjælpe enkeltpersoner med lammelse

mm

Et internationalt hold af forskere har udviklet en wearable brain-machine (BMI) enhed, der kan forbedre livskvaliteten for mennesker med motorisk dysfunktion eller lammelse. Det kunne endda hjælpe dem med locked-in syndrom, som er, når en person ikke er i stand til at bevæge sig eller kommunikere på trods af at han er ved bevidsthed.

Holdet blev ledet af Woon-Hong Yeos laboratorium ved Georgia Institute of Technology og omfattede forskere fra University of Kent i Storbritannien og Yonsei University i Republikken Korea. Holdet kombinerede trådløs blød hovedbundselektronik og virtual reality i et enkelt BMI-system. Systemet gør det muligt for brugere at styre en kørestol eller robotarm blot ved at forestille sig handlinger.

Det nye BMI blev beskrevet i journalen Avanceret videnskab sidste måned.

En mere komfortabel enhed

Yeo er lektor ved George W. Woodruff School of Mechanical Engineering.

"Den største fordel ved dette system for brugeren, sammenlignet med det, der findes i øjeblikket, er, at det er blødt og behageligt at have på, og at det ikke har nogen ledninger," sagde Yeo.

BMI-systemer kan analysere hjernesignaler og overføre neural aktivitet til kommandoer, hvilket er det, der gør det muligt for individerne at forestille sig handlinger, som BMI'et kan udføre. ElectroEncephaloGraphy, eller EEG, er den mest almindelige ikke-invasive metode til at opnå signalerne, men det kræver ofte en kalot med mange ledninger. 

For at kunne bruge disse enheder kræves brugen af ​​geler og pastaer for at opretholde hudkontakt, og alt dette opsætning er tidskrævende og ubehageligt for brugeren. Derudover har enhederne ofte dårlig signalopsamling på grund af materialenedbrydning og bevægelsesartefakter, som er forårsaget af ting som at slibe tænder. Denne type støj vil optræde i hjernedata, og forskerne skal filtrere den fra.

Machine Learning og Virtual Reality

Det bærbare EEG-system designet af teamet forbedrer signalopsamlingen takket være integrationen af ​​interceptable mikronåleelektroder med bløde trådløse kredsløb. For at måle hjernens signaler er det afgørende for systemet at bestemme, hvilke handlinger en bruger ønsker at udføre. For at opnå dette stolede teamet på en maskinlæringsalgoritme og virtual reality-komponent. 

Tests udført af holdet involverede fire menneskelige forsøgspersoner, og næste skridt er at teste det på handicappede personer. 

Yeo er også direktør for Georgia Techs Center for Human-Centric Interfaces and Engineering under Institute for Electronics and Nanotechnology, samt medlem af Petit Institute for Bioengineering and Bioscience. 

"Dette er blot en første demonstration, men vi er begejstrede for det, vi har set," sagde Yeo.

Tilbage i 2019 introducerede det samme hold en blød, bærbar EEG-hjerne-maskine-grænseflade, og arbejdet inkluderede Musa Mahmood, som var hovedforfatter af både denne forskning og den nye.

"Denne nye hjerne-maskine grænseflade bruger et helt andet paradigme, der involverer forestillede motoriske handlinger, såsom at gribe med begge hænder, hvilket frigør motivet fra at skulle se på for mange stimuli," sagde Mahmood.

2021-undersøgelsen involverede brugere, der demonstrerede nøjagtig kontrol af virtual reality-øvelser med deres tanker eller motoriske billeder. 

"De virtuelle prompter har vist sig at være meget nyttige," sagde Yeo. "De fremskynder og forbedrer brugerengagement og nøjagtighed. Og vi var i stand til at optage kontinuerlig motorisk billedaktivitet af høj kvalitet."

Mahmood siger, at holdet nu vil fokusere på at optimere elektrodeplacering og mere avanceret integration af stimulus-baseret EEG.

Alex McFarland er en AI-journalist og forfatter, der udforsker den seneste udvikling inden for kunstig intelligens. Han har samarbejdet med adskillige AI-startups og publikationer verden over.