其他科技公司可能會效仿 DeepSeek 的方法
隨著 DeepSeek 的方法受到啟發,其他科技公司可能會開始建立類似的低成本推理模型,而能源消耗的前景看起來已經不那麼樂觀了。
人工智慧模型的生命週期
任何人工智慧模型的生命週期有兩個階段:訓練和推理。訓練是通常需要幾個月的過程,模型從數據中學習。然後,模型就準備進行推理,這發生在世界上任何人詢問它問題的時候。這兩個階段通常都在數據中心進行,運行晶片和冷卻伺服器需要大量的能源。
DeepSeek 的 R1 模型訓練改進
在訓練其 R1 模型的過程中,DeepSeek 的團隊改進了一種叫做「專家混合」的技術,這種技術在訓練期間只有一部分模型的數十億個參數——模型用來形成更好答案的「旋鈕」——在特定時間內被啟用。更值得注意的是,他們改進了強化學習,這是一種模型的輸出會被評分並用來改進模型的過程。這通常由人類標註者完成,但 DeepSeek 團隊在自動化這個過程上做得很好。
訓練效率的提高
引入提高訓練效率的方法可能暗示著人工智慧公司將使用更少的能源來達到某個標準。但實際上並不是這樣。
「因為擁有更智能系統的價值非常高,」Anthropic 共同創辦人 Dario Amodei 在他的部落格上寫道,這「使得公司在訓練模型上花費更多,而不是更少。」如果公司能夠獲得更多的價值,他們會覺得花更多錢是值得的,因此會使用更多的能源。他寫道:「成本效率的提高最終完全用於訓練更智能的模型,僅受限於公司的財務資源。」這是一個被稱為傑文斯悖論的例子。
推理階段的能源需求
但在人工智慧競賽中,這在訓練階段一直都是如此。推理所需的能源才是更有趣的地方。
DeepSeek 的推理模型設計
DeepSeek 被設計為推理模型,這意味著它在邏輯、模式發現、數學和其他典型生成式人工智慧模型難以處理的任務上表現良好。推理模型使用一種叫做「思考鏈」的方法。這讓人工智慧模型能夠將任務分解成幾個部分,並按照邏輯順序逐步解決,然後得出結論。
DeepSeek 的實際應用
你可以從 DeepSeek 的表現中看到這一點。當你問它是否可以為了保護某人的感受而撒謊時,模型首先用功利主義來處理這個問題,權衡即時的好處和潛在的未來傷害。然後,它考慮康德倫理學,這種倫理學主張你應該根據可以成為普遍法則的準則行事。它在分享結論之前會考慮這些和其他細微之處。(如果你感興趣,它發現撒謊在「善良和防止傷害至關重要的情況下通常是可以接受的,但沒有普遍的解決方案。」)
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!