草根影響力新視野 編譯/鍾藝

KIJ12

神經學家正在「教」AI從大腦中解碼信息。

Kelly Servick在本周發布在bioRxiv的三篇論文中稱,目前已有三個不同的研究團隊證明他們可以解碼神經元發出的語音信息。在這些研究中,直接放置在大腦上的電極可以記錄神經活動,同時,讓腦外科手術接受患者聽或者念出文字。隨後,研究人員嘗試弄明白患者聽到或者說出的內容是什麼。在每個研究案例中,研究人員都可以將大腦的腦電波活動轉換為可以被其他人理解的聲音文件。

在第一個研究實驗中,研究人員對腦手術中的患者展開了研究。(在實驗中採用的神經記錄技術必須在大腦暴露於空氣中並且電極可以直接放置在腦部時,才能精準的反應神經活動的詳細情況。所以對處於腦部手術中的患者展開此項研究是較為合適的。)

當患者聽到聲音文件時,研究人員記錄了負責聽取聲音部分的神經元活動情況。在嘗試了各種神經元信息解讀方法後,該研究的小組成員發現計算機深度學習的效果最好。用人聲將計算機深度學習後解碼的信息念出來時,75%的信息是可以被人們理解的。

第二個研究依賴於進行過腦腫瘤切除手術患者的神經元記錄。當患者大聲朗讀單音節詞時,研究人員記錄了患者口中傳出的聲音和在大腦發音區域發出的神經元信息。之後,研究人員利用人工智慧神經網路將神經元記錄轉換成音頻文件,而不是利用計算器深入學習演算法深層次了解每一個患者的情況。從結果來看,人工智慧神經網路輸出的信息也是可以被理解的。

在第三個實驗中,研究人員記錄的對象是大腦中將詞語信息轉化成肌肉運動的部分。研究人員在實驗報告中表示,他們能通過這種方式重建整個句子,並且讓聽過這些句子的人可以正確理解它們。

所有這些實驗的目標是有一天能夠讓失去說話能力的人(例如肌萎縮側索硬化症或類似病症的患者)可以通過計算機與大腦連接的界面實現說話。目前,還沒有相關的實際應用案例。

根據現階段的科學研究成果,解釋一個人想說話的神經模式比解釋聽到或者說出來的神經模式更為複雜。不過,第二個研究的成員表示,未來有可能通過技術實現對大腦活動的解釋。

雖然這些研究都取得了一定的成果,但是研究體量還不足夠大。第一個研究僅分析了5個患者的數據,第二個研究分析了6個患者的數據,第三個研究則更少,僅有3名患者的數據。而且每個研究對神經活動進行記錄的時長都沒有超過1個小時。

儘管如此,科學正在向前發展,我們有理由相信,能連接到大腦的人工語音設備會在某一天成為現實。

資料來源:AI Can Now Decode Words Directly from Brain Waves