Anslut dig till vÄrt nÀtverk!

Brain Machine Interface

Stort genombrott inom telepatisk kommunikation mellan mÀnniska och AI: MindSpeech avkodar sömlösa tankar till text

mm

I ett revolutionerande steg framÄt i interaktion mellan mÀnniska och AI har forskare vid MindPortal har framgÄngsrikt utvecklat MindSpeech, den första AI-modellen som kan avkoda kontinuerligt förestÀllt tal till sammanhÀngande text utan nÄgra invasiva procedurer. Detta framsteg markerar en betydande milstolpe i strÀvan efter sömlös, intuitiv kommunikation mellan mÀnniskor och maskiner.

Den banbrytande studien: Icke-invasiv tankeavkodning

Forskningen, utförd av ett team av ledande experter och publicerad pÄ arXiv och Researchgate, visar hur MindSpeech kan avkoda komplexa tankar i fri form till text under kontrollerade testförhÄllanden. Till skillnad frÄn tidigare anstrÀngningar som krÀvde invasiv kirurgi eller var begrÀnsade till enkla, memorerade verbala signaler, visar denna studie att AI dynamiskt kan tolka förestÀllt tal frÄn hjÀrnaktivitet pÄ ett icke-invasivt sÀtt.

Forskare anvÀnde en bÀrbar, funktionell nÀra-infraröd spektroskopi med hög densitet (fNIRS) system för att övervaka hjÀrnaktivitet medan deltagarna förestÀllde sig meningar över olika Àmnen. Det nya tillvÀgagÄngssÀttet innebar en "ordmoln"-uppgift, dÀr deltagarna presenterades för ord och ombads att förestÀlla sig meningar relaterade till dessa ord. Den hÀr uppgiften tÀckte över 90 % av de mest anvÀnda orden pÄ det engelska sprÄket och skapade en rik datauppsÀttning pÄ 433 till 827 meningar per deltagare, med en genomsnittlig lÀngd pÄ 9.34 ord.

Utnyttja avancerad AI: Llama2 och hjÀrnsignaler

AI-komponenten i MindSpeech drevs av Llama2 stor sprÄkmodell (LLM), ett sofistikerat textgenereringsverktyg som styrs av hjÀrnsignalgenererade inbÀddningar. Dessa inbÀddningar skapades genom att integrera hjÀrnsignaler med kontextinmatad text, vilket gör att AI:n kan generera sammanhÀngande text frÄn förestÀllt tal.

NyckelmÄtt som BLEU-1 och BERT P-poÀng anvÀndes för att utvÀrdera AI-modellens noggrannhet. Resultaten var imponerande och visade statistiskt signifikanta förbÀttringar i avkodningsnoggrannhet för tre av fyra deltagare. Till exempel var deltagare 1:s BLEU-1-poÀng signifikant högre vid 0.265 jÀmfört med 0.224 med permuterade ingÄngar, med ett p-vÀrde pÄ 0.004, vilket indikerar en robust prestation nÀr det gÀller att generera text nÀra inriktad med de förestÀllda tankarna.

HjÀrnaktivitetskartlÀggning och modelltrÀning

Studien kartlade ocksÄ hjÀrnaktivitet relaterad till förestÀllt tal, med fokus pÄ omrÄden som den laterala temporala cortex, dorsolateral prefrontal cortex (DLPFC) och visuella bearbetningsomrÄden i den occipitala regionen. Dessa fynd överensstÀmmer med tidigare forskning om talkodning och understryker möjligheten att anvÀnda fNIRS för icke-invasiv hjÀrnövervakning.

Att trÀna AI-modellen involverade en komplex process av snabb instÀllning, dÀr hjÀrnsignalerna omvandlades till inbÀddningar som sedan anvÀndes för att vÀgleda textgenerering av LLM. Detta tillvÀgagÄngssÀtt möjliggjorde generering av meningar som inte bara var sprÄkligt sammanhÀngande utan ocksÄ semantiskt liknade det ursprungliga förestÀllda talet.

Ett steg mot sömlös mÀnsklig-AI-kommunikation

MindSpeech representerar en banbrytande prestation inom AI-forskning, som för första gÄngen visar att det Àr möjligt att avkoda kontinuerligt förestÀllt tal frÄn hjÀrnan utan invasiva procedurer. Denna utveckling banar vÀg för mer naturlig och intuitiv kommunikation med AI-system, vilket potentiellt förÀndrar hur mÀnniskor interagerar med teknik.

FramgĂ„ngen med denna studie visar ocksĂ„ pĂ„ potentialen för ytterligare framsteg inom omrĂ„det. Även om tekniken Ă€nnu inte Ă€r redo för utbredd anvĂ€ndning, ger resultaten en inblick i en framtid dĂ€r telepatisk kommunikation med AI kan bli verklighet.

Implikationer och framtida forskning

Implikationerna av denna forskning Àr enorma, frÄn att förbÀttra hjÀlpmedelstekniker för individer med kommunikationsnedsÀttningar till att öppna nya grÀnser i mÀnniska-datorinteraktion. Studien pekar dock ocksÄ pÄ de utmaningar som ligger framför oss, som att förbÀttra AI-modellens kÀnslighet och generaliserbarhet och anpassa den till ett bredare spektrum av anvÀndare och applikationer.

Framtida forskning kommer att fokusera pÄ att förfina AI-algoritmerna, utöka datasetet med fler deltagare och utforska realtidsapplikationer av tekniken. MÄlet Àr att skapa ett verkligt sömlöst och universellt hjÀrn-dator-grÀnssnitt som kan avkoda ett brett spektrum av tankar och idéer till text eller andra former av kommunikation.

Slutsats

MindSpeech Àr ett banbrytande genombrott inom mÀnsklig-AI-kommunikation, som visar upp den otroliga potentialen hos icke-invasiva hjÀrndatorgrÀnssnitt.

LÀsare som vill lÀra sig mer om detta företag bör lÀsa vÄr intervju med Ekram Alam, VD och medgrundare av MindPortal, dÀr vi diskuterar hur MindPortal samverkar med stora sprÄkmodeller genom mentala processer.

Antoine Àr en visionÀr ledare och grundande partner till Unite.AI, driven av en orubblig passion för att forma och frÀmja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika störande för samhÀllet som elektricitet, och fÄngas ofta pÄ att tjata om potentialen hos störande teknologier och AGI.

Som en futurist, Àr han dedikerad till att utforska hur dessa innovationer kommer att forma vÄr vÀrld. Dessutom Àr han grundare av Securities.io, en plattform fokuserad pÄ att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.