Gemini 2.0 現已向所有人開放 — 每週 AI 新聞快報 (2025年2月10日)
另外:AI 設計的蛋白質可以治療致命的蛇毒
😎 網路上的消息
Gemini 2.0 現在已經向所有人開放。Google DeepMind 推出了更新版的 Gemini 2.0 Flash 和實驗性質的 Gemini 2.0 Pro,為開發者提供了更好的性能,透過 Google AI Studio 和 Vertex AI。這次發布包含了 2.0 Flash-Lite,能夠節省成本,並且使用新的強化學習技術來增強安全性,顯示出 Gemini 在多模態推理和編碼方面的強大能力。前 OpenAI 科學家 Sutskever 的超智能創業公司可能會達到 200 億美元的估值。由 Ilya Sutskever 共同領導的 Safe Superintelligence (SSI) 考慮進行一輪融資,可能使其估值達到 200 億美元。與其他 AI 公司不同,SSI 專注於開發“安全超智能”,而不創造商業產品。阿里巴巴的 Qwen 團隊發布了可以控制電腦和手機的 AI 模型。阿里巴巴的 Qwen 團隊發布了 Qwen2.5-VL AI 模型,在視頻理解和文檔分析方面超越了 OpenAI 和 Google 等競爭對手。這些模型可以在 Qwen Chat 和 Hugging Face 上使用,能夠分析文本、圖像和視頻,並控制電腦和手機上的應用程式。字節跳動推出 OmniHuman-1:將照片轉換為栩栩如生的人類視頻的 AI。字節跳動推出 OmniHuman-1,這是一個 AI 模型,可以將單張圖片和音頻片段轉換為非常真實的人類視頻。它利用了 19,000 小時的視頻訓練,能夠生成自然表情和語音同步的栩栩如生的動畫。AI 設計的蛋白質對抗致命的蛇毒。華盛頓大學的 AI 驅動研究創造了合成蛋白質,可以中和致命的蛇毒。他們的 AI 模型使用 NVIDIA GPU 快速識別有效的抗毒素設計。這些蛋白質可能提供一種低成本、易於生產的治療方法,可能改變全球的蛇咬護理,並為其他醫療狀況帶來希望。Google 預計今年在 AI 競賽上花費 750 億美元。Alphabet,Google 的母公司,計劃在 2025 年投資 750 億美元的資本支出,這比 2023 年的 323 億美元大幅增加,可能專注於 AI 基礎設施。Google 的 2024 年第四季度收益顯示,收入增長了 12%,這主要是由其雲端部門的 AI 進步推動的。亞馬遜暗示 Alexa AI 即將推出——新語音助手的三個期待。亞馬遜計劃在 2 月 26 日的紐約市活動中推出一個新的 Alexa,這個新版本能更好地理解自然語言和自動化任務。Alexa 將作為 AI 代理,自動化任務,例如根據用戶的日常習慣控制智能燈。最初免費的 Alexa AI 功能,未來可能會收取每月 5 至 10 美元的費用。
📚 網路上的指南
開源 DeepResearch — 解放我們的搜尋代理。OpenAI 發布了 Deep Research,這是一個網頁瀏覽系統,擅長總結內容和回答問題。在 GAIA 基準上達到 67% 的準確率,其代理框架顯著超越了獨立的 LLM。開發者的目標是複製並開源這個框架,通過編碼行動來增強代理性能。o1 不是一個聊天模型(這正是重點)。作者從懷疑轉變為每天使用 OpenAI 的 o1,認識到它作為“報告生成器”的潛力,能有效地創建詳細的輸出和豐富的簡報。這種理解使 o1 更適合複雜推理,而不是簡單的聊天互動,突顯了它在處理完整任務和技術解釋方面的優勢,同時暴露了風格特定寫作的挑戰。為什麼每個人都對 DeepSeek 感到驚訝。DeepSeek 大幅降低了 AI 模型的訓練成本,挑戰了像 NVIDIA 這樣的行業巨頭。他們的高效方法,僅需 560 萬美元,顛覆了市場估值,顯示出較小的初創公司可以通過優化資源來競爭,儘管存在現有的晶片出口管制。這一變化質疑了在 AI 領域進行大量財務投資的必要性,重塑了競爭動態。如何擴展你的模型:從系統的角度看 TPU 上的 LLM。來自 Google DeepMind 的作者談論在 TPU 上擴展語言模型,解釋模型優化、硬體通信和並行化技術。他們詳細介紹了 Transformer 架構、TPU 的運作以及實現強擴展而不受通信限制的方法。憲法分類器:防範普遍越獄。Anthropic 的新憲法分類器方法強有力地防禦 AI 模型免受普遍越獄,將越獄成功率從 86% 降至 4.4%,並且附加拒絕率和計算開銷最小。在測試系統的穩健性時,參與者未能實現普遍越獄,顯示出分類器在保護 AI 的同時保持實用性的有效性。
🔬 有趣的論文和資料庫
LIMO:少即是多的推理。LIMO 挑戰了對語言模型推理的傳統看法,通過使用最少的訓練數據在數學任務中達到高準確率。僅使用 817 個樣本,它在 AIME 上達到 57.1% 和在 MATH 上達到 94.8%,超越了先前的模型。少即是多的推理假設表明,複雜推理源於良好預訓練的模型和有效的認知模板。DeepRAG:逐步思考到檢索的過程,針對大型語言模型。DeepRAG 通過將檢索增強推理建模為馬爾可夫決策過程來提高準確性。通過逐步分解查詢,它戰略性地決定是檢索外部知識還是依賴參數推理,從而優化檢索效率並最小化噪音。DeepRAG 有效解決了大型語言模型在推理和檢索整合中的挑戰。1.58 位元 FLUX。研究人員介紹了 1.58 位元 FLUX,這是一種使用 1.58 位元權重對 FLUX.1-dev 文本到圖像模型進行量化的方法,在不犧牲質量的情況下提高效率,適用於 1024 x 1024 的圖像生成。他們的方法依賴於模型自我監督,實現了 7.7 倍的存儲減少、5.1 倍的推理記憶減少和改善的延遲,這在 GenEval 和 T2I Compbench 基準上得到了驗證。隱藏思維的高效推理。Heima 框架通過使用 Heima 編碼器將推理簡化為單個思維標記,為多模態大型語言模型的思維鏈推理提供了便利。Heima 解碼器然後將其解釋為連貫的文本。SmolLM2:當 Smol 變得強大——小型語言模型的數據中心訓練。SmolLM2 是一個新的小型語言模型,擁有 17 億個參數,通過在 11 萬億個多樣化數據的過度訓練中實現卓越性能,包括 FineMath 和 Stack-Edu 等專門數據集。通過迭代數據集精煉過程,SmolLM2 超越了最近的模型,如 Qwen2.5–1.5B 和 Llama3.2–1B,並且團隊釋出了所有支持數據集以供持續研究。直接對齊算法之間的差異模糊不清。直接對齊算法通過使用直接政策優化來簡化語言模型的對齊。通過監督微調的增強提高了性能,特別是在單階段方法中。納入成對目標,而不是特定的獎勵函數,對該方法至關重要。這些發現強調了需要嚴格評估以證實對齊算法優越性的說法。
✨ 額外內容
想在你的 Medium 動態中看到這份新聞快報和更多 AI 內容嗎?請關注我和/或為這篇文章點贊!想通過電子郵件接收這份新聞快報嗎?這是免費的,你可以訂閱以通過電子郵件接收我的文章。我只會發送這份新聞快報。想在 LinkedIn 上閱讀 AI、機器學習、新聞、論文等的解釋嗎?請關注 Generative AI Central 頁面!
感謝你的閱讀!
Gemini 2.0 現已向所有人開放 — 每週 AI 新聞快報 (2025年2月10日) 最初發表在 Generative AI 的 Medium 上,大家正在繼續討論這個故事。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!