potongan Teknologi 'Speech Neuroprosthesis' Mengembalikan Bicara ke Pasien Dengan Kelumpuhan Parah - Unite.AI
Terhubung dengan kami

Kesehatan

Teknologi 'Speech Neuroprosthesis' Mengembalikan Bicara ke Pasien Dengan Kelumpuhan Parah

Diterbitkan

 on

Dalam pengembangan besar lainnya dalam prostetik kecerdasan buatan (AI), para peneliti di University of California San Francisco telah berhasil mengembangkan "neuroprostesis wicara" yang memulihkan sebagian kemampuan bicara seorang pria dengan kelumpuhan parah. Teknologi baru membantunya berbicara dalam kalimat ketika menerjemahkan sinyal dari otaknya ke saluran vokal. Kata-kata itu kemudian muncul sebagai teks di layar. 

Pekerjaan tersebut melibatkan peserta pertama dari uji coba penelitian klinis, dan itu adalah bagian dari kumpulan pekerjaan yang lebih besar yang telah dilakukan selama lebih dari sepuluh tahun oleh ahli bedah saraf UCSF Edward Chang, MD, yang telah berusaha mengembangkan teknologi yang memungkinkan orang dengan kelumpuhan untuk berkomunikasi bahkan ketika mereka tidak dapat berbicara sendiri. 

Grafik belajar diterbitkan pada tanggal 15 Juli di New England Journal of Medicine

Sistem Pertama dari Jenisnya

Chang adalah Ketua Bedah Saraf Joan dan Sanford Weill di UCSF dan Profesor Kehormatan Jeanne Robertson. Dia juga penulis senior studi ini. 

“Sepengetahuan kami, ini adalah demonstrasi pertama yang sukses dari decoding langsung kata-kata lengkap dari aktivitas otak seseorang yang lumpuh dan tidak dapat berbicara,” kata Chang. “Ini menunjukkan janji kuat untuk memulihkan komunikasi dengan memanfaatkan mesin bicara alami otak.”

Bekerja di bidang ini secara tradisional berkisar memulihkan komunikasi melalui pendekatan berbasis ejaan untuk menulis huruf satu per satu dalam teks. Namun, studi baru berfokus pada menerjemahkan sinyal yang sebenarnya dimaksudkan untuk mengontrol otot-otot sistem vokal untuk mengucapkan kata-kata. Ini berbeda dengan karya tradisional, yang menitikberatkan pada isyarat-isyarat yang menggerakkan lengan atau tangan. 

Menurut Chang, pendekatan baru ini memanfaatkan aspek-aspek bicara yang natural dan cair, dan ini dapat menghasilkan lebih banyak kemajuan di bidang ini. Dia juga mengatakan bahwa pendekatan berbasis ejaan yang mengandalkan pengetikan, penulisan, dan pengendalian kursor jauh lebih lambat.

“Dengan ucapan, kami biasanya mengkomunikasikan informasi dengan kecepatan yang sangat tinggi, hingga 150 atau 200 kata per menit,” katanya. "Langsung ke kata-kata, seperti yang kita lakukan di sini, memiliki keuntungan besar karena lebih dekat dengan cara kita biasanya berbicara."

Pekerjaan Chang sebelumnya bergantung pada pasien di Pusat Epilepsi UCSF yang menjalani bedah saraf untuk mendeteksi apa yang menyebabkan kejang mereka, dan menggunakan rangkaian elektroda yang ditempatkan di permukaan otak pasien. Para pasien berbicara dengan normal, dan hasilnya membantu mengarah pada percobaan saat ini untuk individu dengan kelumpuhan. 

Beberapa metode baru yang dikembangkan oleh tim termasuk cara untuk memecahkan kode pola aktivitas kortikal dan bahasa statistik untuk meningkatkan akurasi. 

David Moses, PhD, adalah seorang insinyur postdoctoral di Chang Lab dan salah satu penulis utama.

 “Model kami perlu mempelajari pemetaan antara pola aktivitas otak yang kompleks dan ucapan yang dimaksudkan,” kata Moses. “Itu menimbulkan tantangan besar ketika peserta tidak dapat berbicara.”

Peserta Pertama

Peserta pertama uji coba adalah seorang pria berusia akhir 30-an yang menderita stroke batang otak lebih dari 15 tahun yang lalu yang menyebabkan hubungan antara otak dan saluran vokal dan anggota tubuhnya rusak parah. 

Dengan mengembangkan kosakata 50 kata yang dapat dikenali oleh tim Chang menggunakan algoritme komputer canggih, peserta mampu membuat ratusan kalimat yang mengungkapkan konsep kehidupan sehari-hari. 

Dia diminta untuk memasang susunan elektroda kepadatan tinggi di atas korteks motorik ucapannya, dan setelah pemulihannya, lebih dari 22 jam aktivitas saraf di wilayah otak ini direkam selama 48 sesi. 

Sean Metzger, MS dan Jessie Liu, BS, keduanya adalah mahasiswa doktoral bioteknologi di Chang Lab dan bertanggung jawab untuk mengembangkan model jaringan saraf khusus yang dapat menerjemahkan pola aktivitas saraf yang terekam menjadi kata-kata yang dimaksudkan secara spesifik. 

Setelah pengujian, tim menemukan bahwa sistem dapat memecahkan kode kata-kata dari aktivitas otak dengan kecepatan hingga 18 kata per menit, dan 93 persen akurat. Tim menerapkan fungsi "koreksi otomatis" ke model bahasa, yang membantu meningkatkan akurasi.

 “Kami sangat senang melihat decoding yang akurat dari berbagai kalimat yang bermakna,” kata Moses. “Kami telah menunjukkan bahwa sebenarnya memungkinkan untuk memfasilitasi komunikasi dengan cara ini dan memiliki potensi untuk digunakan dalam percakapan.”

Tim sekarang akan memperluas uji coba untuk memasukkan lebih banyak peserta yang menderita kelumpuhan parah dan masalah komunikasi. Mereka juga memperluas jumlah kata dalam kosakata dan berupaya meningkatkan kecepatan bicara. 

“Ini adalah tonggak teknologi yang penting bagi seseorang yang tidak dapat berkomunikasi secara alami,” kata Moses, “dan ini menunjukkan potensi pendekatan ini untuk memberikan suara kepada orang-orang dengan kelumpuhan parah dan kehilangan kemampuan berbicara.”

 

Alex McFarland adalah jurnalis dan penulis AI yang mengeksplorasi perkembangan terkini dalam kecerdasan buatan. Dia telah berkolaborasi dengan banyak startup dan publikasi AI di seluruh dunia.