聲音如何影響我們的聽覺
當聲音波到達內耳時,那裡的神經元會接收振動並通知大腦。這些信號中包含了大量的信息,使我們能夠跟上對話、認出熟悉的聲音、欣賞音樂,還能快速找到響鈴的手機或哭泣的寶寶。
神經元通過發出尖峰來傳遞信號——這是電壓的短暫變化,沿著神經纖維傳播,也稱為動作電位。令人驚訝的是,聽覺神經元每秒可以發出數百個尖峰,並且能夠非常精確地將尖峰與進入的聲音波的振盪相匹配。
麻省理工學院 (MIT) 的麥戈文腦研究所的科學家們利用強大的新模型來研究人類的聽覺,發現這種精確的時間控制對於我們理解聽覺信息的幾種重要方式至關重要,包括識別聲音和定位聲音。
這些開放存取的研究結果於12月4日發表在《自然通訊》期刊上,顯示機器學習如何幫助神經科學家理解大腦如何在現實世界中使用聽覺信息。麻省理工學院教授兼麥戈文研究員喬希·麥克德莫特 (Josh McDermott) 解釋說,他的團隊的模型使研究人員能夠更好地研究不同類型的聽力障礙的後果,並設計更有效的干預措施。
聲音的科學
神經系統的聽覺信號時間控制得非常精確,研究人員早就懷疑這種時間控制對我們的聲音感知很重要。聲音波的振盪頻率決定了它們的音調:低音的聲音以慢速波動,而高音的聲音波則更頻繁地振盪。將耳朵中檢測聲音的毛細胞的信息傳遞到大腦的聽覺神經會產生與這些振盪頻率相對應的電尖峰。麥克德莫特解釋說:“聽覺神經中的動作電位在刺激波形的峰值相對的非常特定的時間點發射。”
這種關係稱為相位鎖定,要求神經元以亞毫秒的精度來控制它們的尖峰時間。但科學家們並不確定這些時間模式對大腦有多重要。麥克德莫特表示,這個問題不僅在科學上引人入勝,還有重要的臨床意義:“如果你想設計一個能向大腦提供電信號的假體,以重現耳朵的功能,那麼了解正常耳朵中哪些信息實際上是重要的,無疑是非常重要的。”
這一直很難進行實驗研究;動物模型無法提供太多關於人類大腦如何提取語言或音樂結構的見解,而聽覺神經在人體中也無法進行研究。因此,麥克德莫特和研究生馬克·薩德勒 (Mark Saddler) 轉向了人工神經網絡。
人工聽覺
神經科學家們長期以來一直使用計算模型來探索大腦如何解碼感官信息,但直到最近計算能力和機器學習方法的進步,這些模型只能模擬簡單的任務。薩德勒表示:“這些先前模型的一個問題是,它們通常表現得太好。”例如,要求計算模型識別一對簡單音調中的高音,這個模型的表現可能會比人類更好。“這不是我們在聽覺中每天都會做的任務。”薩德勒指出,“大腦並不是為了解決這種非常人工的任務而優化的。”這種不匹配限制了從這一代模型中獲得的見解。
為了更好地理解大腦,薩德勒和麥克德莫特希望挑戰一個聽覺模型,讓它執行人們在現實世界中使用聽覺的任務,比如識別單詞和聲音。這意味著需要開發一個人工神經網絡來模擬接收耳朵輸入的大腦部分。該網絡接收來自約32,000個模擬聲音檢測感覺神經元的輸入,然後針對各種現實任務進行優化。
研究人員顯示,他們的模型很好地複製了人類的聽覺——比任何先前的聽覺行為模型都要好,麥克德莫特說。在一個測試中,人工神經網絡被要求在數十種背景噪音中識別單詞和聲音,從飛機客艙的嗡嗡聲到熱烈的掌聲。在每一種情況下,該模型的表現與人類非常相似。
然而,當團隊降低模擬耳中的尖峰時間時,他們的模型無法再匹配人類識別聲音或定位聲音的能力。例如,雖然麥克德莫特的團隊之前已經顯示人們使用音調來幫助識別聲音,但模型顯示,沒有精確的時間信號,這種能力就會喪失。“你需要非常精確的尖峰時間,才能解釋人類行為並在任務中表現良好。”薩德勒說。這表明大腦使用精確的聽覺信號,因為它們有助於聽覺的實際方面。
團隊的研究結果展示了人工神經網絡如何幫助神經科學家理解耳朵提取的信息如何影響我們對世界的感知,無論聽覺是否正常。“現在我們有這些將耳朵中的神經反應與聽覺行為聯繫起來的模型,我們可以問,‘如果我們模擬不同類型的聽力損失,這將對我們的聽覺能力產生什麼影響?’”麥克德莫特說。“這將幫助我們更好地診斷聽力損失,我們認為這也可以幫助我們設計更好的助聽器或人工耳蝸。”例如,他說:“人工耳蝸在各種方面有限——它可以做一些事情,但不能做其他事情。如何設置這個人工耳蝸以幫助你調節行為?原則上,你可以利用這些模型來告訴你這一點。”
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!