生成式人工智慧和大型語言模型 (LLMs) 的領域因為創新初創公司 Inception Labs 推出的 Mercury 而取得了顯著的進展。這是第一個商業規模的擴散大型語言模型 (dLLMs),Inception Labs 承諾在文本和程式碼生成任務的速度、成本效益和智能方面帶來根本性的變革。
Mercury:設定人工智慧速度和效率的新標準
Inception 的 Mercury 系列擴散大型語言模型提供了前所未有的性能,運行速度超過傳統 LLM 架構所能達到的。Mercury 在普通的 NVIDIA H100 GPU 上實現了超過每秒 1000 個標記的驚人吞吐量,這種性能曾經只有專門設計的硬體如 Groq、Cerebras 和 SambaNova 才能實現。這意味著與目前領先的自回歸模型相比,速度提升了驚人的 5-10 倍。
擴散模型:文本生成的未來
傳統的自回歸 LLM 逐個標記生成文本,這會導致顯著的延遲和計算成本,特別是在需要大量推理和錯誤修正的任務中。然而,擴散模型利用獨特的「粗到細」生成過程。與受限於順序生成的自回歸模型不同,擴散模型通過從嘈雜的近似值中逐步精煉輸出,實現了多個標記的並行更新。這種方法顯著提高了推理、錯誤修正和生成內容的整體一致性。
雖然擴散方法在圖像、音頻和視頻生成方面已經證明是革命性的,推動了像 Midjourney 和 Sora 這樣的應用,但在文本和程式碼等離散數據領域的應用直到 Inception 的突破之前大多數還未被探索。
Mercury Coder:高速、高品質的程式碼生成
Inception 的旗艦產品 Mercury Coder 專門針對程式碼應用進行了優化。開發者現在可以使用一個高品質、快速響應的模型,能夠以每秒超過 1000 個標記的速度生成程式碼,這比現有的速度導向模型有了顯著的改善。
在標準的程式碼基準測試中,Mercury Coder 不僅匹配,還經常超越其他高性能模型,如 GPT-4o Mini 和 Claude 3.5 Haiku。此外,Mercury Coder Mini 在 Copilot Arena 獲得了第二名的好成績,超越了 GPT-4o Mini 和 Gemini-1.5-Flash 等成熟模型。更令人印象深刻的是,Mercury 在速度上比 GPT-4o Mini 快了約 4 倍。

多功能性和整合性
Mercury dLLMs 可以無縫地作為傳統自回歸 LLM 的替代品。它們輕鬆支持包括檢索增強生成 (RAG)、工具整合和基於代理的工作流程等用例。擴散模型的並行精煉允許多個標記同時更新,確保快速且準確的生成,適合企業環境、API 整合和本地部署。
由人工智慧創新者打造
Inception 的技術基於斯坦福大學、加州大學洛杉磯分校 (UCLA) 和康奈爾大學的基礎研究,創始人因其對生成式人工智慧演變的重要貢獻而受到認可。他們的專業知識包括圖像擴散模型的原始開發以及直接偏好優化、閃電注意力和決策變壓器等創新技術,這些技術被廣泛認可為對現代人工智慧的變革性影響。
Inception 推出的 Mercury 標誌著企業人工智慧的一個關鍵時刻,解鎖了先前不可能實現的性能水平、準確性和成本效益。
查看遊樂場和技術細節。所有這項研究的功勞都歸於這個項目的研究人員。此外,歡迎在 Twitter 上關注我們,並別忘了加入我們的 80,000 多名機器學習 SubReddit。
🚨 推薦閱讀 – LG AI Research 發布 NEXUS:一個先進的系統,整合代理人工智慧系統和數據合規標準,以解決人工智慧數據集中的法律問題。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!