…以及更多關於大型人工智慧公司使用版權資料訓練的消息
😎 網路新聞
OpenAI的首席執行官山姆·阿特曼 (Sam Altman) 表示,該公司的高價 ChatGPT Pro 計劃正在虧損。OpenAI面臨財務挑戰,因為每月200美元的ChatGPT Pro計劃因用戶參與度超出預期而虧損。儘管籌集了約200億美元,該公司仍然無法盈利,面臨重大成本。OpenAI計劃進行重組,並可能提高訂閱價格,以實現預計今年116億美元的穩健收入目標。Nvidia的首席執行官黃仁勳 (Jensen Huang) 表示,他的人工智慧晶片的進步速度超過摩爾定律。黃仁勳聲稱,該公司的人工智慧晶片在性能提升上比以往的模型快30倍,這一進展可能降低人工智慧推理的成本,因為新晶片增強了計算能力。馬克·祖克柏 (Mark Zuckerberg) 允許Meta的Llama團隊使用版權作品進行訓練,並提出索賠。版權訴訟中的原告指控Meta首席執行官馬克·祖克柏批准使用LibGen的盜版內容來訓練Llama人工智慧模型,儘管內部有顧慮。他們指控Meta剝奪版權資料以隱瞞侵權行為,並非法下載LibGen,試圖繞過法律方法。OpenAI的山姆·阿特曼表示「我們知道如何建造AGI」。OpenAI首席執行官山姆·阿特曼聲稱該公司知道如何建造AGI,並以超智能為目標,以加速科學進步。新的o1基準對人工智慧基準測試提出了更多問題。獨立測試顯示OpenAI的o1模型性能存在差異,僅解決了30%的編程任務,而OpenAI聲稱的為48.9%。研究人員強調測試方法的作用,建議OpenAI的腳本化方法可能高估了能力。這一不一致性突顯了人工智慧基準測試中的挑戰,影響了公眾的看法和投資者的信心。Nvidia縮小了Grace-Blackwell超級晶片,以支持3000美元的迷你電腦。Nvidia在CES上推出了Project Digits,這是一款由GB10 Grace-Blackwell超級晶片驅動的3000美元迷你電腦。該設備與聯發科技 (MediaTek) 合作,支持128GB RAM的人工智慧任務。它配備20核心的Grace CPU、Blackwell GPU,並提供4TB NVMe存儲,支持人工智慧模型實驗,最多可支持2000億個參數。將於2025年5月上市。FACTS Grounding:評估大型語言模型事實性的基準。FACTS團隊推出了FACTS Grounding,這是一個測量大型語言模型事實準確性的基準,旨在解決幻覺問題。它包含1719個例子,涵蓋多種背景,由像GPT-4o這樣的LLM進行評估,以確保回應的可靠性。
📚 網路指南
在PyTorch中可視化和理解GPU記憶體。這篇文章解釋了在PyTorch中GPU記憶體的使用,提供可視化記憶體和優化使用的工具。它詳細說明了估算模型參數、優化器狀態、激活和梯度的記憶體需求,考慮到批次大小等因素。使用小步驟數進行分析有助於管理大量信息,幫助理解並減少訓練過程中的GPU記憶體使用。人工智慧是否遇到瓶頸?伊利亞·蘇茲克維爾 (Ilya Sutskever) 指出,人工智慧模型的預訓練進展放緩,但通過未利用的數據和合成數據,突破仍在繼續,增強了像OpenAI的o1在推理和特定任務上的能力。不是的,LLM並不是「陰謀」。在2024年,人工智慧的進步打破了圖靈測試,重新定義了對智慧的看法。像OpenAI的o1這樣的大型語言模型是先進的模式學習者,而不是有意識的陰謀者。它們模仿複雜的推理,並沒有意圖,反映了人類的數據。
🔬 有趣的論文和資料庫
rStar-Math:小型LLM可以通過自我進化的深度思考掌握數學推理。rStar-Math展示了小型語言模型可以在數學推理上超越OpenAI的o1,而不需要蒸餾。通過蒙特卡羅樹搜索和自我進化實現深度思考,rStar-Math增強了模型以解決高級問題,將Qwen2.5-Math-7B的準確率提高到90%。它解決了53.3%的美國數學奧林匹克問題,排名前20%的學生。VideoRAG:基於視頻語料庫的檢索增強生成。VideoRAG根據查詢的相關性動態檢索相關視頻,並在輸出生成中利用視覺和文本信息。利用大型視頻語言模型,它處理視頻內容以進行檢索,並將這些視頻與查詢整合。深入了解時間序列異常檢測:十年回顧。近年來,機器學習的進步導致了多種時間序列異常檢測方法,對於網絡安全和醫療保健等領域至關重要。這項調查將這些方法分類為以過程為中心的分類法,並進行了元分析,以識別研究趨勢,突顯了從統計測量到機器學習算法檢測異常的轉變。JoyGen:音頻驅動的3D深度感知對話面部視頻編輯。JoyGen介紹了一個兩階段的框架,用於生成對話面部視頻,實現精確的唇音同步和優越的視覺質量。通過整合3D重建模型和音頻轉動作模型,JoyGen預測身份和表情係數。JoyGen在唇同步和視覺外觀上超越了現有方法。LTX-Video:實時視頻潛在擴散。LTX-Video介紹了一個基於變壓器的潛在擴散模型,集成了視頻變分自編碼器 (Video-VAE) 和去噪變壓器,以實現高效的視頻生成。它支持文本到視頻和圖像到視頻的生成。該模型在Nvidia H100 GPU上生成5秒的高解析度視頻僅需2秒,超越了現有模型,並提供公開的代碼和預訓練模型。
✨ 額外內容
這裡有其他你可能會喜歡的文章:OpenAI將發布推理模型的微調——每週人工智慧通訊 (2024年12月9日) 兩分鐘生成式人工智慧——大型語言模型何時會耗盡訓練數據?想在LinkedIn上閱讀有關人工智慧、機器學習、新聞、論文等的解釋嗎?請關注生成式人工智慧中心 (Generative AI Central) 頁面!想在你的Medium動態中看到這份通訊和更多人工智慧內容嗎?請關注我和/或為這篇文章點讚!想通過電子郵件接收這份通訊嗎?這是免費的,你可以訂閱以通過電子郵件接收我的文章。我只會發送這份通訊。
感謝你的閱讀!
OpenAI在ChatGPT Pro上虧損?——每週人工智慧通訊 (2025年1月13日) 最初發表於生成式人工智慧 (Generative AI) 的Medium上,這裡人們繼續通過強調和回應這個故事來進行討論。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!