OpenAI 和其他領先的人工智能公司正在開發新的訓練技術,以克服當前方法的局限性。這些新技術針對開發更大、更強大的語言模型時出現的意外延遲和複雜性,專注於類似人類的行為,以教導算法「思考」。
據報導,這些新訓練技術是由十多位人工智能研究人員、科學家和投資者領導的,它們支撐了 OpenAI 最近的「o1」模型(前身為 Q* 和 Strawberry),有潛力改變人工智能開發的格局。報導中的進展可能會影響人工智能公司持續所需的資源類型或數量,包括專用硬件和能源,以幫助人工智能模型的發展。
o1 模型旨在以模仿人類推理和思考的方式來處理問題,將眾多任務分解為步驟。該模型還利用來自人工智能行業專家的專業數據和反饋來提升其性能。
自從 OpenAI 在 2022 年推出 ChatGPT 以來,人工智能創新激增,許多科技公司聲稱現有的人工智能模型需要擴展,無論是通過更大的數據量還是改善計算資源。只有這樣,人工智能模型才能持續改進。
現在,人工智能專家已報告了擴大人工智能模型的局限性。2010 年代是擴展的革命時期,但人工智能實驗室 Safe Superintelligence (SSI) 和 OpenAI 的共同創始人 Ilya Sutskever 表示,人工智能模型的訓練,特別是在理解語言結構和模式方面,已經趨於平穩。
「2010 年代是擴展的時代,現在我們又回到了奇蹟和發現的時代。擴展正確的事物現在更為重要。」他們說。
近期,人工智能實驗室的研究人員在開發和發布比 OpenAI 的 GPT-4 模型更強大的大型語言模型 (LLM) 時,經歷了延遲和挑戰。
首先,大型模型的訓練成本往往高達數千萬美元。此外,由於出現複雜性問題,例如系統複雜性導致硬件故障,這些模型的最終運行分析可能需要幾個月的時間。
除了這些挑戰外,訓練運行還需要大量的能源,這通常導致電力短缺,從而干擾過程並影響更廣泛的電力網。另一個問題是大型語言模型所使用的數據量巨大,以至於人工智能模型據報導已耗盡了全球所有可用數據。
研究人員正在探索一種稱為「測試時計算」的技術,以改進當前的人工智能模型,無論是在訓練還是在推理階段。該方法可以涉及實時生成多個答案,以決定一系列最佳解決方案。因此,模型可以將更多處理資源分配給需要類似人類決策和推理的困難任務。目標是使模型更準確和更有能力。
Noam Brown,OpenAI 的研究人員,參與了 o1 模型的開發,他分享了一個新方法如何取得驚人結果的例子。在上個月於舊金山舉行的 TED AI 大會上,Brown 解釋說:「讓一個機器人在一手撲克中思考僅 20 秒,獲得的性能提升與將模型擴展 100,000 倍並訓練 100,000 倍長的效果相同。」
與其簡單地增加模型大小和訓練時間,這可以改變人工智能模型處理信息的方式,並導致更強大、更高效的系統。
據報導,其他人工智能實驗室也在開發 o1 技術的版本,包括 xAI、Google DeepMind 和 Anthropic。人工智能領域的競爭並不新鮮,但我們可能會看到新技術對人工智能硬件市場的重大影響。像 Nvidia 這樣的公司,由於其產品的高需求,目前主導著人工智能芯片供應,可能會特別受到新人工智能訓練技術的影響。
Nvidia 在十月成為全球最有價值的公司,其財富的增長在很大程度上歸因於其芯片在人工智能陣列中的使用。新技術可能會影響 Nvidia 的市場地位,迫使該公司調整其產品以適應不斷演變的人工智能硬件需求。這可能為推理市場的新競爭者開辟更多途徑。
一個新的人工智能發展時代可能即將到來,這是由不斷演變的硬件需求和更高效的訓練方法(如 o1 模型中採用的方法)推動的。人工智能模型及其背後公司的未來可能會被重塑,解鎖前所未有的可能性和更大的競爭。
另請參見:Anthropic 呼籲對人工智能進行監管以避免災難
想了解更多來自行業領袖的人工智能和大數據資訊?請查看在阿姆斯特丹、加州和倫敦舉行的人工智能與大數據博覽會。這個綜合性活動與其他領先的活動共同舉行,包括智能自動化大會、BlockX、數字轉型周等。