摘要:一種新的腦機介面是目前為止最準確的,可以預測一個人的內心獨白。這項技術可以幫助那些因為疾病而影響說話能力的人有效地溝通。
來源:加州理工學院 (CalTech)
最新的加州理工學院研究顯示,植入人體大腦的設備,稱為腦機介面 (BMI),未來可能幫助失去說話能力的病人。
在2022年美國神經科學學會會議上,研究人員展示了如何使用BMI準確預測一位四肢癱瘓參與者所想的單詞,而不是他說出或模仿的單詞。
加州理工學院的研究生莎拉·瓦德爾特 (Sarah Wandelt) 說:「你可能已經看過四肢癱瘓的人使用BMI控制機器手臂和手,例如抓起一瓶水喝水或吃一塊巧克力。」
瓦德爾特在11月13日的會議上表示:「這些新結果在語言和溝通方面非常有希望。我們使用BMI重建了語音。」
之前的研究在分析參與者在耳語或模仿單詞時,從運動區域記錄的大腦信號來預測語音方面取得了一些成功。但預測某人內心的對話則更困難,因為這不涉及任何動作,瓦德爾特解釋道。
瓦德爾特說:「過去,試圖預測內心語音的算法只能預測三到四個單詞,準確率低,或無法即時反應。」
這項新研究是目前為止最準確的內心語音預測。在這項研究中,研究人員從一個名為超邊緣回 (supramarginal gyrus) 的大腦區域記錄了單個神經元的信號,這個區域位於後頂葉皮層。研究人員在之前的研究中發現,這個大腦區域代表了口語單詞。
現在,研究團隊將其發現擴展到內心語音。在這項研究中,研究人員首先訓練BMI設備,以識別四肢癱瘓參與者在內心說出某些單詞時產生的大腦模式。這個訓練過程大約花了15分鐘。
然後,他們在螢幕上顯示一個單詞,並要求參與者在內心說出這個單詞。結果顯示,BMI算法能夠以高達91%的準確率預測八個單詞。
這項工作仍然是初步的,但可能幫助那些因腦部受傷、癱瘓或如漸凍人症 (ALS) 等影響說話的疾病的病人。
瓦德爾特說:「神經系統疾病可能導致自願肌肉完全癱瘓,讓病人無法說話或移動,但他們仍然能夠思考和推理。對於這類人群,內心語音BMI將非常有幫助。」
安德森 (Richard Andersen) 說:「我們之前已經展示了如何從人類超邊緣回解碼想像中的手形。」他補充說:「能夠從這個區域解碼語音,表明一個植入物可以恢復兩種重要的人類能力:抓取和說話。」
研究人員還指出,BMI無法用來讀取人們的思想;這個設備需要在每個人的大腦中單獨訓練,並且只有在一個人專注於這個單詞時才有效。
除了瓦德爾特和安德森,其他參與這項研究的加州理工學院作者還包括大衛·比亞尼斯 (David Bjanes)、凱爾西·佩賽 (Kelsie Pejsa)、布賴恩·李 (Brian Lee) 和查爾斯·劉 (Charles Liu)。李和劉是加州理工學院的訪問研究員,並在南加州大學的凱克醫學院 (Keck School of Medicine) 擔任教職。
關於這項神經科技研究新聞
作者:惠特尼·克拉文 (Whitney Clavin) 來源:加州理工學院 (CalTech) 聯絡:惠特尼·克拉文 – 加州理工學院 (CalTech) 圖片:該圖片為公有領域
原始研究:封閉訪問。「從人類參與者的單個神經元進行在線內心語音解碼」由莎拉·瓦德爾特等人撰寫。MedRxiv
摘要
語音腦機介面 (BMI) 將大腦信號轉換為單詞或音頻輸出,使那些因疾病或受傷而失去說話能力的人能夠溝通。
雖然在語音、嘗試和模仿語音解碼方面取得了重要進展,但內心語音解碼的結果仍然稀少,且尚未達到高功能性。值得注意的是,目前仍不清楚內心語音可以從哪些大腦區域解碼。
在這項工作中,一位植入微電極陣列的四肢癱瘓參與者在超邊緣回 (SMG) 和初級體感皮層 (S1) 進行了六個單詞和兩個虛構單詞的內心和口語語音。
我們發現從SMG單個神經元活動中進行穩健的內心語音解碼,在在線任務中達到高達91%的分類準確率(機會水平為12.5%)。
發現內心語音、單詞閱讀和口語語音過程之間存在共享的神經表徵。SMG能夠代表不同語言(英語/西班牙語)及虛構單詞,提供語音編碼的證據。
此外,我們的解碼器在多種內心語音策略(聽覺想像/視覺想像)中達到了高分類準確率。S1的活動受到口語語音的調節,但不受內心語音的影響,這表明在內心語音產生過程中並未發生發音器官的運動。
這項工作代表了高效內心語音BMI的首次概念驗證。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!