專為語音設計的人工智慧現在正在解碼地震的語言。
來自洛斯阿拉莫斯國家實驗室 (Los Alamos National Laboratory) 地球與環境科學部的研究團隊,將Meta的Wav2Vec-2.0這個為語音識別設計的人工智慧模型,重新用於分析2018年夏威夷基拉韋厄火山 (Kīlauea) 崩塌的地震信號。
他們的研究結果發表在《自然通訊》(Nature Communications)上,顯示當地震斷層移動時會發出獨特的信號——這些模式現在可以被人工智慧實時追蹤。雖然這並不意味著人工智慧可以預測地震,但這項研究是理解斷層在滑動事件前行為的重要一步。
這項研究的主要研究者之一克里斯多福·約翰遜 (Christopher Johnson) 表示:「地震記錄是波浪通過固體地球的聲學測量。從信號處理的角度來看,許多相似的技術可以應用於音頻和地震波形分析。」
大型地震不僅會搖動地面,還會影響經濟。在過去五年中,日本、土耳其和加州的地震造成了數百億美元的損失,並使數百萬人流離失所。
這就是人工智慧的用武之地。在約翰遜的帶領下,與王昆 (Kun Wang) 和保羅·約翰遜 (Paul Johnson) 一起,洛斯阿拉莫斯的團隊測試了語音識別人工智慧是否能理解斷層的運動——像解讀句子中的單詞一樣解碼震動。
為了測試他們的方法,團隊使用了2018年夏威夷基拉韋厄火山口崩塌的數據,該事件在三個月內引發了一系列地震。
人工智慧分析了地震波形,並將其映射到實時地面運動,顯示斷層可能以類似人類語言的模式「說話」。
像Wav2Vec-2.0這樣的語音識別模型非常適合這項任務,因為它們擅長識別複雜的時間序列數據模式——無論是人類語音還是地球的震動。
這個人工智慧模型的表現超過了傳統方法,例如梯度提升樹 (gradient-boosted trees),後者在處理地震信號的不可預測性方面表現不佳。梯度提升樹通過連續建立多個決策樹來改進預測,每一步都修正之前的錯誤。
然而,這些模型在處理高度變化的連續信號(如地震波形)時會遇到困難。相比之下,像Wav2Vec-2.0這樣的深度學習模型在識別潛在模式方面表現優異。
人工智慧如何被訓練來聆聽地球
與之前需要手動標記訓練數據的機器學習模型不同,研究人員使用自我監督學習的方法來訓練Wav2Vec-2.0。該模型在連續的地震波形上進行了預訓練,然後使用基拉韋厄崩塌序列的真實數據進行微調。
NVIDIA的加速計算在並行處理大量地震波形數據方面發揮了關鍵作用。高性能的NVIDIA GPU加速了訓練,使人工智慧能夠有效地從連續的地震信號中提取有意義的模式。
還缺少什麼:人工智慧能預測地震嗎?
雖然這個人工智慧在追蹤實時斷層移動方面顯示出潛力,但在預測未來位移方面的效果較差。嘗試訓練模型以進行近期預測——基本上是要求它在事件發生前預測滑動事件——結果並不明確。
他解釋說:「我們需要擴展訓練數據,以包括來自其他地震網絡的連續數據,這些數據包含更多自然發生和人為信號的變化。」
邁向更智能的地震監測
儘管在預測方面面臨挑戰,這些結果標誌著地震研究的一個有趣進展。這項研究表明,為語音識別設計的人工智慧模型可能特別適合解釋斷層隨時間變化的複雜信號。
約翰遜表示:「這項研究在構造斷層系統的應用上仍處於起步階段。這項研究更像是來自實驗室實驗的數據,而不是具有更長重現間隔的大型地震斷層區。將這些努力擴展到現實世界的預測將需要進一步的模型開發,並加入基於物理的約束。」
所以,語音基礎的人工智慧模型目前還不能預測地震。但這項研究表明,如果科學家能教它更仔細地聆聽,將來它們可能會做到。
閱讀完整論文《自動語音識別預測當前地震斷層位移》,深入了解這項突破性研究背後的科學。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!