캘리포니아 대학교 샌프란시스코 캠퍼스(University of California, San Francisco)의 신경과학자들이 놀라운 뇌-기계 인터페이스를 개발했습니다. 이 시스템을 통해 발성기관을 제어하는 뇌의 활동을 분석하여, 내 목소리와 똑같은 ‘합성 목소리’를 만들 수 있죠. 직접 소리를 내서 말을 할 수 없는 경우, 내가 하고 싶은 말을 기계가 나의 목소리로 대신 말해줄 수 있게 된 것입니다.
뇌졸중이나 심각한 뇌 손상, 혹은 파킨슨 병과 같은 신경퇴행성 질병으로 인해 간혹 말하는 능력을 영구적으로 잃는 경우가 있습니다. 이렇듯 언어 장애가 있는 경우, 눈동자 움직임이나 얼굴 표정을 추적하여 글자를 하나씩 찍는 방식으로 소통을 하지만, 이 방식으로는 1분에 10단어 정도를 만들어 낼 수 있을 뿐입니다. 목소리를 통해 1분에 100~150단어를 말하는 것과 비교하면 매우 느린 편이죠.
동 연구를 이끌었던 고팔라 아누만치팔리(Gopala Anumanchipalli) 박사와 연구진은 뇌가 발성기관으로 ‘말하라’는 명령을 내릴 때, 음성 자체를 전달하는 것이 아니라 그 음성을 발생시키기 위한 ‘물리적 움직임’을 명령한다는 사실을 발견했습니다.
연구진은 병원에서 다섯 명의 지원자를 대상으로 실험을 진행했다고 하는데요. 언어 능력에는 전혀 손상이 없지만, 발작 관련 수술을 위해 일시적으로 뇌에 전극을 이식한 환자들이었습니다. 이들에게 몇백개의 개의 문장으로 구성된 지문을 주고, 이를 큰 소리로 읽는 동안 그들의 (언어와 관련 있다고 알려진) 뇌 부분의 활동을 기록한 것이죠.
또는 여기를 클릭하세요~
(원문: 여기를 클릭하세요~)