Connect with us

‘์Œ์„ฑ ์‹ ๊ฒฝ๋ณด์ฒ ’ ๊ธฐ์ˆ , ์ค‘์ฆ ๋งˆ๋น„ ํ™˜์ž์—๊ฒŒ ์–ธ์–ด ๋Šฅ๋ ฅ ํšŒ๋ณต

ํ—ฌ์Šค์ผ€์–ด

‘์Œ์„ฑ ์‹ ๊ฒฝ๋ณด์ฒ ’ ๊ธฐ์ˆ , ์ค‘์ฆ ๋งˆ๋น„ ํ™˜์ž์—๊ฒŒ ์–ธ์–ด ๋Šฅ๋ ฅ ํšŒ๋ณต

mm

인공 지능(AI) 보철 분야에서 또 하나의 주요 발전이 이루어졌습니다. 캘리포니아 대학교 샌프란시스코(University of California San Francisco)의 연구자들은 중증 마비 환자의 언어 능력을 부분적으로 회복시킨 “음성 신경보철” 기술을 개발했습니다. 새로운 기술은 환자의 뇌 신호를 음성 기관으로 번역하여 문장을 말할 수 있도록 도와주었습니다. 그러면 단어가 화면에 텍스트로 나타났습니다.

이 연구는 임상 연구 시험의 첫 번째 참가자와 관련이 있으며, 이는 UCSF 신경외과 전문의 Edward Chang, MD가 지난 10년 넘게 진행해온 연구의 일환입니다. 그는 마비 환자가 스스로 말할 수 없을 때도 의사 소통할 수 있는 기술을 개발하려고 시도했습니다.

연구는 7월 15일에 뉴 잉글랜드 의학 저널에 발표되었습니다.

첫 번째 시스템

Chang는 UCSF 신경외과 의사이며 Jeanne Robertson 특훈 교수입니다. 그는 또한 이 연구의 선임 저자입니다.

“우리의 지식으로는, 이것은 마비되어 말할 수 없는 사람의 뇌 활동에서 전체 단어를 직접 해석하는 최초의 성공적인 시연입니다.”라고 Chang는 말했습니다. “それは 뇌의 자연스러운 언어 기계를 활용하여 의사 소통을 회복하는 데 강력한 가능성을 보여줍니다.”

이 분야의 전통적인 연구는 문자 기반 접근 방식을 사용하여 텍스트로 하나하나 글자를 적는 방식으로 의사 소통을 회복하는 데 중점을 두었습니다. 그러나 새로운 연구는 음성 기관의 근육을 제어하기 위한 신호를 번역하는 데 중점을 두었습니다. 이것은 전통적인 연구와는 다르며, 전통적인 연구는 손이나 팔을 움직이는 신호에 중점을 두었습니다.

Chang에 따르면, 새로운 접근 방식은 언어의 자연스럽고 유동적인 측면을 활용하며, 이 분야에서 훨씬 더 많은 발전을 이룰 수 있을 것입니다. 그는 또한 타이핑, 글쓰기, 커서 제어와 같은 문자 기반 접근 방식은 훨씬 더 느리다고 말했습니다.

“우리는 일반적으로 매우 높은 속도로 정보를 전달합니다. 1분당 150〜200 단어입니다.”라고 그는 말했습니다. “여기서처럼 단어로 바로 가는 것은 우리가 일반적으로 말하는 방식에 더 가깝기 때문에 큰 장점이 있습니다.”

Chang의 이전 연구는 UCSF 간질 센터의 환자들이 뇌 수술을 받아서 발작의 원인을 감지하는 데 중점을 두었습니다. 연구는 환자의 뇌 표면에 전극 배열을 배치했습니다. 환자는 정상적인 언어 능력을 가지고 있었으며, 결과는 현재 마비 환자를 위한 시험으로 이어졌습니다.

새로운 방법 중 일부는 뇌 활동 패턴을 해석하고 언어의 통계를 개선하여 정확도를 높이는 방법이었습니다.

David Moses, PhD는 Chang 연구소의 博士後 연구원이며, 또 다른 공동 저자입니다.

“우리의 모델은 복잡한 뇌 활동 패턴과 의도된 언어 사이의 매핑을 학습해야 했습니다.”라고 Moses는 말했습니다. “그것은 참가자가 말할 수 없을 때 큰 도전이 됩니다.”

첫 번째 참가자

시험의 첫 번째 참가자는 15년 전 뇌간에 뇌졸중을 앓은 후 뇌와 음성 기관 및 四肢 사이의 연결이 심각하게 손상된 30대 후반의 남자입니다.

Chang의 팀이 고급 컴퓨터 알고리즘을 사용하여 인식할 수 있는 50단어 어휘를 개발함으로써, 참가자는 일상 생활 개념을 표현하는 수백 개의 문장을 만들 수 있었습니다.

그는 음성 운동 피질 위에 고밀도 전극 배열을 이식해야 했으며, 회복 후 48회에 걸쳐 이 뇌 영역에서 22시간의 신경 활동을 기록했습니다.

Sean Metzger, MS와 Jessie Liu, BS는 모두 Chang 연구소의 생물공학 박사 과정 학생이며, 기록된 신경 활동 패턴을 특정한 의도된 단어로 번역할 수 있는 커스텀 신경망 모델을 개발했습니다.

테스트 후, 팀은 시스템이 1분당 최대 18단어의 속도로 뇌 활동에서 단어를 해석할 수 있으며, 93%의 정확도를 보였다고发现했습니다. 팀은 언어 모델에 “자동 수정” 기능을 적용하여 정확도를 개선했습니다.

“우리는 다양한 의미 있는 문장의 정확한 해석을 보고 매우 기뻤습니다.”라고 Moses는 말했습니다. “우리는 실제로 이러한 방식으로 의사 소통을 촉진할 수 있으며, 대화 환경에서 사용할 수 있는 잠재력을 가지고 있음을 보여주었습니다.”

팀은現在 중증 마비와 의사 소통 문제를 겪는 더 많은 참가자를 포함하는 시험을 확대할 계획입니다. 또한 어휘의 단어 수를 늘리고 말하기 속도를 개선하는 데에도 집중할 것입니다.

“이것은 자연스럽게 의사 소통할 수 없는 사람에게 중요한 기술적 里程碑입니다.”라고 Moses는 말했습니다. “그리고 중증 마비와 언어 장애가 있는 사람에게 목소리를 줄 수 있는 접근 방식의 잠재력을 보여줍니다.”

Alex McFarland์€ ์ธ๊ณต ์ง€๋Šฅ์˜ ์ตœ์‹  ๊ฐœ๋ฐœ์„ ํƒ๊ตฌํ•˜๋Š” AI ์ €๋„๋ฆฌ์ŠคํŠธ์ด์ž ์ž‘๊ฐ€์ž…๋‹ˆ๋‹ค. ๊ทธ๋Š” ์ „ ์„ธ๊ณ„์˜ ์ˆ˜๋งŽ์€ AI ์Šคํƒ€ํŠธ์—…๊ณผ ์ถœํŒ๋ฌผ๋“ค๊ณผ ํ˜‘๋ ฅํ–ˆ์Šต๋‹ˆ๋‹ค.