DeepSeek推出替代OpenAI的o1模型,Mistral發布124B多模態模型,Anthropic從亞馬遜籌集40億美元。
這裡是你每週的生成式AI文章、指南和新聞!
😎 網路新聞
DeepSeek推出DeepSeek-R1,這是一個與OpenAI的o1競爭的推理AI模型。DeepSeek介紹了DeepSeek-R1,這是一個推理AI模型,能夠進行事實檢查和複雜問題解決的計劃。DeepSeek-R1在AIME和MATH基準測試中與o1相當,但在某些邏輯問題上表現不佳。Mistral推出Pixtral Large,這是一個124B的多模態模型。Mistral AI推出了Pixtral Large,這是一個在圖像和文本理解方面表現優異的124B多模態模型。它基於Mistral Large 2,並在MathVista和DocVQA等基準測試中超越了GPT-4o。這個模型可用於研究和商業用途,擁有128K的上下文窗口和先進的能力。Anthropic從亞馬遜籌集了40億美元,並將AWS作為其“主要”訓練夥伴。Anthropic從亞馬遜籌集了40億美元,使AWS成為其主要的AI訓練夥伴。他們在Trainium加速器的開發上合作,並將Claude模型整合到亞馬遜的平台上。亞馬遜的總投資達到80億美元,引起了監管機構的關注。推出FLUX.1工具。BlackForestLabs推出了FLUX.1工具,增強了他們的FLUX.1文本到圖像模型的控制和可操作性。這些工具包括FLUX.1 Fill用於圖像修補,FLUX.1 Canny和Depth用於結構指導,以及FLUX.1 Redux用於圖像變化。OpenAI計劃開發一個與ChatGPT集成的瀏覽器,挑戰Google的Chrome。OpenAI計劃開發一個與ChatGPT集成的瀏覽器,以挑戰Google的Chrome。該公司已招募了關鍵的Chrome開發者,並與Conde Nast和Samsung等公司洽談AI驅動的功能。這些努力是在SearchGPT推出之後,顯示了OpenAI在AI技術領域的雄心,並希望在各個領域直接與Google競爭。OpenAI早期的動盪歲月在馬斯克、奧特曼等人的電子郵件中曝光。電子郵件顯示了OpenAI早期的緊張局勢,伊隆·馬斯克試圖控制,與伊利亞·蘇茨克維爾等人就治理問題發生衝突。山姆·奧特曼的商業動機也受到質疑。早期的想法包括收購Cerebras和與Tesla的合作。
📚 網路指南
我們會耗盡數據嗎?基於人類生成數據的LLM擴展限制。LLM可能在2026年至2032年之間面臨數據瓶頸,耗盡估計的300萬億個人類生成的公共文本。過度訓練模型可能會加速這一時間表,預計到2025年將使用所有數據。隨著數據稀缺的臨近,AI的進步可能會依賴於合成數據和替代訓練方法。初學者的視覺提示注入指南。像GPT-V4這樣的模型存在漏洞,特別是在視覺提示注入方面。這些攻擊操縱模型誤解圖像,使其能夠實現隱形斗篷和廣告主導等功能。隨著多模態模型的增長,安全問題也隨之上升。GPT達到極限。OpenAI預期的GPT-5,內部稱為Orion,未能提供預期的性能提升,與之前的模型相比。擴展法則的方法達到了極限,促使OpenAI探索像o1模型這樣的替代方案,該模型依賴於實時計算。這標誌著AI發展領域的一個重要轉變。對模型評估的統計方法。Anthropic提出了一種統計方法來改善AI模型的評估,建議使用中心極限定理、聚類標準誤差、方差減少、配對差異分析和功效分析。這些技術旨在提高評估結果的準確性、可靠性和解釋性,解決偏見問題並改善AI模型性能的測量。
🔬 有趣的論文和資料庫
Marco-o1:朝向開放推理模型以解決開放式問題。Marco-o1通過鏈式思維微調和蒙特卡羅樹搜索等技術增強了開放式任務的推理能力。它在解決複雜問題和翻譯任務中取得了顯著的準確性提升,能夠準確解釋口語表達。語言模型在過度訓練和下游任務中可靠擴展。研究人員探索了擴展法則,以預測過度訓練的語言模型的性能及其在下游任務中的準確性。他們測試了104個模型,注意到可以用顯著更少的計算來進行可靠的預測。這項工作降低了過度訓練的風險,並幫助有效地優化未來模型的訓練。搜索、驗證和反饋:基於驗證者工程的基礎模型下一代後訓練範式。驗證者工程是一種新的基礎模型後訓練範式。它通過自動驗證增強模型能力,超越傳統數據標註。這種方法包括三個階段:搜索、驗證和反饋。FrontierMath:評估AI高級數學推理的新基準。FrontierMath是一個新的基準,包含由專家數學家創建的原創、具有挑戰性的數學問題,以評估AI的高級推理能力。涵蓋各個分支,解決數據污染問題,可靠地評估模型。目前的AI系統解決的問題不到2%,顯示出與人類專業知識之間的顯著差距。SAM解碼:通過後綴自動機的推測解碼。SAM解碼引入了一種新的推測解碼方法,使用後綴自動機進行高效的草稿生成,提升大型語言模型的推理速度。這種方法在每個生成步驟中達到平均時間複雜度O(1),並且當與Token Recycling和EAGLE2等方法結合時,顯著超越現有技術,實現高達2.49倍的速度提升。
✨ 額外內容
想在LinkedIn上閱讀有關AI、機器學習、新聞、論文等的解釋嗎?請關注Generative AI Central頁面!想在你的Medium動態中看到這份新聞稿和我更多的AI內容嗎?請關注我和/或為這個故事點贊!想通過電子郵件接收這份新聞稿嗎?這是免費的,你可以訂閱以通過電子郵件接收我的文章。我只會發送這份新聞稿。想在一個地方查看這份新聞稿之前所有的AI新聞嗎?請訪問以下GitHub庫👇
GitHub – fabiochiusano/Awesome-AI-News: ~300條新聞,幫助你快速了解生成式AI的最新動態
這裡還有其他你可能喜歡的文章:兩分鐘生成式AI——Marco-o1,一個新的大型推理模型(LRM)兩分鐘生成式AI——LLM何時會耗盡訓練數據?
謝謝你的閱讀!
OpenAI的o1競爭者?- 每週AI新聞通訊(2024年11月25日)最初發表在Generative AI的Medium上,人們正在通過強調和回應這個故事來繼續討論。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!