在5月8日,O’Reilly Media將舉辦「與AI編碼:我們所知的軟體開發的終結」——一場線上技術會議,重點介紹AI如何已經在提升開發者的效率、增加生產力並為他們的組織帶來實際價值。如果你正在為未來的開發實踐而努力,並對在活動中發言感興趣,我們希望在3月12日之前聽到你的消息。你可以在這裡找到更多資訊和我們的報告徵集。如果你只是想參加?在這裡免費註冊。
幾週前,DeepSeek震驚了AI界,發布了DeepSeek-R1,這是一個推理模型,其性能與OpenAI的o1和GPT-4o模型相當。這個驚訝不在於DeepSeek能夠建立一個好的模型——儘管在美國,許多技術專家並未認真看待中國科技行業的能力——而在於R1的訓練成本估計僅約500萬美元。這大約是訓練OpenAI最近模型成本的十分之一。此外,使用該模型的推理成本約為使用OpenAI的1/27。這足以震撼美國股市,讓GPU晶片製造商NVIDIA的估值損失了近6億美元。
DeepSeek的授權方式出乎意料地開放,這也在業界引起了震動:源代碼和權重都在寬鬆的MIT許可下,開發者發布了一篇相對詳細的論文,介紹了模型的訓練過程。據我所知,這在推理模型中是獨一無二的(特別是OpenAI的o3、Gemini 2.0、Claude 3.7和阿里巴巴的QwQ)。雖然AI的「開放」意義仍在辯論中(例如,QwQ聲稱是「開放的」,但阿里巴巴僅發布了模型的相對小部分),R1可以被修改、專門化、在其他平台上托管,並整合到其他系統中。
R1的發布引發了大量的爭論和討論。DeepSeek是否準確報告了其成本?我不會驚訝地發現DeepSeek的低推理成本是由中國政府補貼的。DeepSeek是否「竊取」了OpenAI的訓練數據?也許;Sam Altman曾表示OpenAI不會因違反服務條款而起訴DeepSeek。Altman當然知道暗示「盜竊」的公關價值,但他也知道法律和公關並不相同。考慮到OpenAI的服務條款中寫道:「在你和OpenAI之間,以及在適用法律允許的範圍內,你(a)保留所有輸入的所有權利,並且(b)擁有所有輸出的所有權。我們在此將所有權利、所有權和利益(如有)轉讓給你。」最後,最重要的問題是:開源軟體促成了我們現在享有的龐大軟體生態系統;開放的AI會導致繁榮的AI生態系統,還是仍然有可能讓單一供應商(或國家)主導?我們會擁有開放的AI還是OpenAI?這是我們真正需要回答的問題。Meta的Llama模型已經在開放AI生態系統方面做出了很大貢獻。AI現在是否已經「脫離(專有)盒子」,永久且不可逆轉?
DeepSeek並不是唯一一個挑戰我們對AI想法的組織。我們已經看到基於R1構建的新模型——它們的訓練成本甚至更低。自DeepSeek宣布以來,伯克利的一個研究小組發布了Sky-T1-32B-Preview,一個訓練成本不到450美元的小型推理模型。它基於阿里巴巴的Qwen2.5-32B-Instruct。更近期,一組研究人員發布了s1,一個32B推理模型,根據一個估計,訓練成本僅為6美元。s1的開發者使用了一個巧妙的技巧:他們沒有使用由推理樣本組成的大型訓練集,而是仔細縮減到1000個樣本,並強迫s1在每個例子上花更多時間。縮減訓練集無疑需要大量人力——而這些估算中不包括人力成本——但這表明訓練有用模型的成本正在大幅下降。其他報告也聲稱推理模型的訓練成本同樣低。這就是重點:當訓練AI的成本接近於零時會發生什麼?當AI開發者不再依賴少數幾家資金雄厚的公司,花費數千萬或數億來訓練專有模型時會發生什麼?
此外,運行一個32B模型的能力在一台配置合理的筆記型電腦上完全可以實現。它會讓你的風扇轉動;速度會很慢(幾分鐘而不是幾秒鐘);你可能需要64GB的RAM——但它會運行。相同的模型在雲端以合理的成本運行,而不需要專用伺服器。這些較小的「提煉」模型可以在現成的硬體上運行,而不需要昂貴的GPU。它們可以做有用的工作,特別是如果針對特定應用領域進行微調。花一些錢在高端硬體上會將響應時間降低到建構和托管自定義模型成為現實選擇的程度。最大的瓶頸將是專業知識。
我們正處於一個新一代推理模型的邊緣,這些模型的訓練和運行成本都很低。DeepSeek和類似模型已經使AI商品化,這有著重大的影響。我一直懷疑OpenAI和其他主要參與者一直在玩一場經濟遊戲。在市場的一端,他們推高訓練成本,以防止其他參與者進入市場。沒有什麼比訓練一個模型需要數千萬美元和建造運營所需基礎設施需要數十億美元的想法更令人沮喪的了。在市場的另一端,使用服務(推理)的費用似乎低得如此驚人,以至於看起來像是經典的「快速擴張」:以低於成本的價格提供服務以佔領市場,然後在競爭對手被驅逐後提高價格。(是的,這很天真,但我認為我們都會看到每百萬個標記60美元時會說,「這沒什麼。」)我們在Uber等服務中看到了這種模式。雖然我們對OpenAI的財務狀況知之甚少,但我們所看到的一切都表明他們距離盈利還很遠——這是快速擴張的明顯跡象。如果競爭者能以OpenAI價格的一小部分提供推理服務,那麼將價格提高到盈利水平將是不可能的。
那麼計算基礎設施呢?美國提議投資5000億美元於人工智慧數據中心,這個數字被一些評論員比作美國對州際公路系統的投資。是否需要更多的計算能力?我不想急於得出不必要或不明智的結論。但這是一個因低成本訓練和推理而變得複雜的問題。如果建立模型的成本大幅下降,更多的組織將會建立模型;如果推理的成本大幅下降,並且這一降幅反映在消費者定價中,將會有更多人使用AI。最終結果可能是訓練和推理的增加。這就是傑文斯悖論。商品成本的降低可能會導致使用量的增加,這可能會增加生產該商品所需的資源。當你思考時,這並不是真正的悖論。
傑文斯悖論對支持日益增長的AI產業所需的數據基礎設施有著重大影響。建立數據中心技術的最佳方法必然取決於這些數據中心的使用方式。它們是支持少數富裕公司在矽谷的運作嗎?還是開放給新一批軟體開發者和使用者?它們是為了實現科幻小說中人類智慧的目標而設計的億萬富翁玩具嗎?還是旨在促進地理和技術上高度分散的實際工作?你為少數公司建造的數據中心,以便它們可以分配數百萬個A100 GPU,將與你為數千家公司提供AI應用服務而建造的數據中心有所不同。我擔心OpenAI、Oracle和美國政府想要建造前者,而我們真正需要的是後者。基礎設施即服務(IaaS)在企業IT團隊中已被廣泛理解和接受。亞馬遜網路服務、微軟Azure、谷歌雲和許多較小的競爭者都提供AI應用的托管服務。所有這些——以及其他雲服務提供商——都計劃擴大其容量,以應對AI工作負載。
在對數據中心進行大規模投資之前,我們還需要考慮機會成本。用五千億美元還能做什麼?我們會因這項投資而錯過什麼其他機會?這項投資何時會帶來回報?這些是我們目前無法回答的問題——而且可能在項目進行幾年後才會有答案。無論我們現在猜測的答案是什麼,都受到擴大計算集群可能是錯誤方法的可能性的影響。雖然這聽起來反直覺,但有充分理由相信,在邏輯上訓練模型應該比在自然語言中訓練它更容易。隨著越來越多的研究小組成功快速且低成本地訓練模型,我們不得不思考,設計用於推理而非訓練的數據中心是否會是一個更好的投資。而這兩者並不相同。如果我們對推理AI的需求可以通過幾百萬美元(甚至可能更少)訓練的模型來滿足,那麼對於通用超人類人工智慧的宏大計劃就朝著錯誤的方向發展,並將使我們錯過建立真正需要的推理基礎設施的機會。所需的基礎設施將使我們能夠建立一個更均衡分配的未來(向威廉·吉布森致歉)。一個包括智能設備的未來,其中許多設備將有間歇性連接或沒有連接,以及我們才剛開始想像的應用。
這就是破壞——毫無疑問,這種破壞目前是不均勻分配的,但這就是破壞的本質。這種破壞無疑意味著我們將看到AI被更廣泛地使用,無論是由新創公司還是成熟公司。Invencion的Off Kilter.部落格指出了一個新一代的「車庫AI」新創公司,這些新創公司不依賴於風險投資者的巨額資金注入。當AI成為商品時,它將創新與資本脫鉤。創新可以回到其根源,成為創造新事物,而不是花費大量金錢。它可以圍繞人類價值建立可持續的業務,而不是將注意力和「參與度」貨幣化——這一過程,我們已經看到,必然導致「劣化」——這本質上需要像Meta這樣的規模。它使AI的價值在社會中擴散,而不是停留在「已經存在……只是尚未均勻分配」的狀態。Off Kilter.的作者寫道:
你無法通過成為反人類來擊敗一個反人類的大科技壟斷者,因為你沒有它的力量。相反,你必須通過成為它的對立面、替代品來獲勝。它尋求強迫時,你必須誘惑。因此,未來的GarageAI公司必須在所有方面堅持以人為本,從管理風格到產品體驗和市場方式,才能成功。
「堅持以人為本」意味著什麼?我們可以從「通用智慧」的目標開始思考。我曾經爭辯過,AI的進步並沒有教會我們智慧是什麼——它們幫助我們理解智慧不是什麼。在1990年代,當Deep Blue擊敗棋王加里·卡斯帕羅夫時,我們了解到棋藝並不是智慧的代理。棋藝是聰明的人可以做到的事情,但下棋的能力並不是智慧的衡量標準。我們在AlphaGo擊敗李世石時學到了同樣的道理——通過玩一個更具挑戰性的遊戲來提高賭注並不根本改變任何事情。使用強化學習來訓練模型而不是基於規則的方法也沒有改變。
區分人類和機器的特徵——至少在2025年——是人類可以想要做某事。機器不能。AlphaGo不想下圍棋。你最喜歡的代碼生成引擎不想編寫軟體,也不會因成功編寫軟體而感到任何獎勵。人類想要創造;這就是人類智慧的根源。或者,正如威廉·巴特勒·葉芝所寫的,「我必須躺下,從所有梯子開始/ 在心靈的骯髒破布和骨頭商店裡。」你可能不想待在那裡,但那是創造的起點——而創造就是獎勵。
這就是為什麼當我看到像Suno(基於AI的音樂合成公司)的創始人Mikey Shulman說「現在製作音樂真的不太愉快……這需要很多時間,需要很多練習,你需要在樂器上變得非常出色,或者在某個製作軟體上變得非常出色。我認為大多數人並不享受他們花在製作音樂上的大部分時間。」時,我感到沮喪。不要誤會我的意思——Suno的產品令人印象深刻,我對音樂合成的嘗試不容易感到驚訝。但任何能說人們不享受製作音樂或學習演奏樂器的人,從未與音樂家交談過。他們也沒有意識到,如果人們真的不想演奏音樂,專業音樂家的薪水會高得多。我們不必說「不要辭掉日常工作」,或者在需要兩小時駕駛和無數小時準備的演出中獲得60美元的報酬。音樂家薪水如此低的原因,除了少數幾位超級明星外,是因為太多人想要這份工作。演員、畫家、雕塑家、小說家、詩人——任何創意職業都是如此。為什麼Suno想要進入這個市場?因為他們認為可以利用非商品化(昂貴)的AI在商品化音樂市場中獲得一份份額,而模型開發的費用提供了一個「護城河」,阻止競爭。兩年前,一份洩露的谷歌文件質疑任何依賴擴大語言模型的公司是否能夠建立護城河。我們現在正在看到這一點的發展:DeepSeek的深層意義在於,擴大所代表的護城河正在消失。
對於「堅持以人為本」的AI,真正的問題是:哪些類型的AI能幫助人類創造力?幫助音樂家創作的工具市場相對較小,但它確實存在;許多音樂家為像Finale這樣的軟體付費,以幫助編寫樂譜。Deep Blue可能不想下棋,但它的成功催生了許多產品,人們用來訓練自己下得更好。如果AI是一種相對便宜的商品,那麼市場的大小並不重要;專門的產品可以在小市場中經濟上可行,幫助人類。
AI輔助編程現在已經被廣泛應用,並可以給我們另一種看待「堅持以人為本」的方式。大多數軟體開發者因為享受創造力而開始他們的職業:他們喜歡編程;他們喜歡讓機器做他們想讓它做的事情。考慮到這一點,編碼助手的真正指標不是它們產生的代碼行數;而是編程是否變得更愉快,軟體開發者所構建的產品是否變得更可用。去掉工作中有趣的部分,而讓軟體開發者困在除錯和測試中,會成為一種抑制。我們不必擔心程序員失去工作;如果創造力消失,他們就不會想要這份工作。(我們將不得不擔心如果缺乏訓練有素的軟體開發者,誰會執行繁瑣的除錯工作。)但幫助開發者理解他們試圖建模的人類過程,以便他們能更好地理解需要解決的問題——這才是以人為本的。消除每個工作中乏味的部分:編寫樣板代碼、學習如何使用你可能永遠不會再需要的庫、用紙和筆寫樂譜。目標是促進人類創造力,而不是限制或消除它。目標是合作,而不是主導。
現在,我們正處於一個轉折點,一個破壞的時刻。接下來會發生什麼?(再引用葉芝的話)什麼正在「朝著伯利恆趨去」?我們不知道,但有一些結論是我們無法避免的:
將會有廣泛的競爭,許多團體將建立AI模型。競爭將是國際性的;關於誰可以使用什麼晶片的規範不會阻止它。模型的大小和能力將有很大差異,從幾百萬個參數到數萬億個。許多小型模型將僅服務於單一用例,但它們將非常有效地服務該用例。許多這些模型將在某種程度上是開放的。開源、開放權重和開放數據已經阻止了AI被限制在少數富裕的參與者之中。
儘管有許多挑戰需要克服——延遲是最大的挑戰——但可以嵌入其他系統的小型模型,從長遠來看將比大型基礎/前沿模型更有用。
那麼,最大的問題是這些模型將如何被使用。當AI在社會中擴散時會發生什麼?我們是否最終會獲得「堅持以人為本」的應用,豐富我們的生活,使我們更具創造力?還是我們會進一步陷入一場爭奪我們注意力(和生產力)的戰爭,通過提供無盡的捷徑來壓制創造力?我們即將揭曉答案。
感謝Jack Shanahan、Kevlin Henney和Kathryn Hume的評論和討論。
新聞來源
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!