Perplexity讓深度研究變得超便宜 — 每週AI電子報(2025年2月17日)
OpenAI公布GPT-5和GPT-4.5計畫,法國投資1120億美元於AI,Mistral推出Le Chat
😎 網路新聞
OpenAI公布GPT-5計畫。OpenAI的執行長山姆·奧特曼(Sam Altman)宣布了GPT-4.5的計畫,內部稱為獵戶座(Orion),這將是最後一個非思考鏈模型,GPT-5將整合多種技術,包括o3。奧特曼提到,OpenAI希望簡化其產品,並表示當GPT-5推出時,免費的ChatGPT用戶將會有一個即將推出的無限制聊天功能。Perplexity剛剛讓AI研究變得非常便宜——這對行業意味著什麼。Perplexity推出了深度研究(Deep Research),這是一個快速且便宜生成綜合報告的工具,挑戰昂貴的AI服務。每月20美元提供500次查詢,威脅到像OpenAI這樣的高價企業模型。法國公布1120億美元的AI投資,作為對美國星門計畫(Stargate)的回應,全球AI競賽加劇。法國將以1090億歐元(約1126億美元)的投資來提升其AI產業,正值他們的全球AI峰會,與美國的5000億美元星門計畫相抗衡。這項投資包括來自阿聯酋(UAE)對法國新AI數據中心的貢獻。這一戰略舉措突顯了與美國和中國之間日益增長的AI競爭。OpenAI計畫在今年完成首個自訂AI晶片設計,以減少對Nvidia的依賴。OpenAI正在朝著創造自己的AI晶片邁進,以減少對Nvidia的依賴,目標是儘快完成設計並送往台積電(TSMC)生產。這一戰略舉措旨在增強談判能力,並可能在2026年前釋出大規模生產的晶片,整合先進架構和高帶寬記憶體。埃隆·馬斯克(Elon Musk)領導的團隊出價970億美元收購OpenAI。馬斯克的財團,包括xAI和巴倫資本(Baron Capital),提出9704億美元收購控制OpenAI的非營利組織,與執行長山姆·奧特曼之間的緊張關係加劇。馬斯克希望阻止OpenAI轉型為營利模式。分析師表示,這筆出價可能會使OpenAI的募資和結構變更計畫變得複雜。OpenAI董事會全體一致拒絕馬斯克領導的團隊9704億美元的提議,表示公司「不出售」。OpenAI的董事會全體一致拒絕了馬斯克9704億美元的收購提議,強調公司不出售。馬斯克,作為前共同創辦人,批評其與微軟的財務關係。儘管馬斯克的財團表示,如果公司放棄營利計畫,他們將撤回出價,但OpenAI重申其對非營利使命的承諾。全新的Le Chat:你的生活和工作AI助手。Le Chat是Mistral AI推出的新AI助手,提供個人和專業使用的全面功能,包括快速回應、文件分析和代碼執行。它在iOS和Android上可用,並推出了專業版、團隊版和企業版。Pikadditions:用AI改變你的影片。Pikadditions由Pika Labs開發,通過讓用戶輕鬆地將任何物體或角色整合到現有影片中來改善影片編輯。這個工具提供現實的AI元素放置、多次拍攝以進行創意調整、互動陰影和用戶友好的介面。
📚 網路指南
處理數百萬PDF檔案,為什麼Gemini 2.0改變一切。Gemini Flash 2.0在PDF解析方面取得了驚人的進展,實現了近乎完美的光學字符識別(OCR)準確性,同時保持成本效益,每美元可處理多達6000頁。它在RAG管道的文件分塊方面表現出色,儘管邊界框檢測的問題仍然存在。這一發展簡化並節省了大規模文件處理的成本,接近於輕鬆解析現實世界文件的突破。多層推測實現超快代碼編輯。這篇文章提出了一種多層推測解碼方法,使整個文件的代碼編輯速度提高了多達7.7倍。它結合了輔助解碼和提示查找解碼(PLD),以優化標記生成和驗證。在代碼編輯場景的基準測試中顯示出顯著的加速,特別是在編輯比例不同的代碼文件中,提高了效率,並提供了更快、適應性強的草稿標記時間表。
🔬 有趣的論文和資料庫
利用潛在推理擴大測試時計算:一種遞歸深度方法。一種新穎的語言模型架構通過在潛在空間中推理來擴大測試時計算。它使用遞歸區塊來展開計算,與添加更多標記的模型形成對比。在沒有專門訓練數據的情況下,它能夠處理小的上下文窗口和複雜的推理。1B LLM能否超越405B LLM?重新思考計算最優測試時擴展。研究人員探索測試時擴展(TTS),以在推理過程中增強大型語言模型。他們發現,使用計算最優的TTS的1B模型在複雜任務中可以超越405B模型。TTS策略依賴於政策模型、過程獎勵模型和問題難度,這表明較小的模型在正確的計算方法下可以表現出色。偉大的模型思考相似,這削弱了AI的監督。隨著語言模型能力的增強,評估和監督它們變得具有挑戰性。使用其他模型自動化這些任務,稱為「AI監督」,顯示出模型偏好與自己相似的模型。隨著模型能力的增強,這種相似性風險來自相關故障。解決和修正模型相似性在AI監督中變得至關重要,以減輕這些風險。大型推理模型的競爭編程。強化學習增強大型語言模型以應對複雜的推理任務。在模型比較中,o3在沒有手工設計策略的情況下超越了專門的管道,在2024年國際奧林匹克資訊競賽(IOI)中獲得金牌。此外,o3的Codeforces評分與精英人類相當,展示了其在沒有特定領域技術下的實力,並突顯了擴展通用強化學習的有效性。InfiniteHiP:在單個GPU上將語言模型上下文擴展至300萬個標記。InfiniteHiP通過動態修剪不相關的標記並將關鍵值緩存卸載到主記憶體,解決了LLM中的長上下文挑戰,允許在單個GPU上處理多達300萬個標記而不丟失上下文。
✨ 額外內容
想在你的Medium動態消息中看到這份電子報和更多AI內容嗎?請追蹤我或為這篇文章點讚!想通過電子郵件接收這份電子報嗎?這是免費的,你可以訂閱以通過電子郵件接收我的文章。我只會發送這份電子報。想在LinkedIn上閱讀AI、機器學習、新聞、論文等的解釋嗎?請追蹤生成式AI中心(Generative AI Central)頁面!
謝謝你的閱讀!
Perplexity讓深度研究變得超便宜 — 每週AI電子報(2025年2月17日)最初發表在生成式AI(Generative AI)上,讀者們正在通過強調和回應這個故事來繼續討論。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!