隨著人工智慧(AI)產業越來越重視透明度與安全性,關於「開放性」的真實意義的討論也愈加激烈。來自開源安全公司 Endor Labs 的專家們針對這些重要議題發表了看法。
Endor Labs 的高級產品行銷經理安德魯·斯蒂費爾(Andrew Stiefel)強調,將從軟體安全中學到的教訓應用於 AI 系統是非常重要的。
他說:「美國政府在 2021 年發佈的行政命令,旨在改善美國的網路安全,要求組織為每個銷售給聯邦政府機構的產品製作一份軟體材料清單(SBOM)。」
SBOM 實際上是一份清單,詳細列出了產品中的開源組件,幫助檢測漏洞。斯蒂費爾認為,「將這些原則應用於 AI 系統是合乎邏輯的下一步。」
他解釋說:「為公民和政府員工提供更好的透明度,不僅能提高安全性,還能讓人們了解模型的數據集、訓練、權重和其他組件。」
AI 模型的「開放性」意味著什麼?
Endor Labs 的高級產品經理朱利安·索布里耶(Julien Sobrier)為有關 AI 透明度和「開放性」的討論增添了重要的背景。索布里耶解釋了將 AI 系統歸類為真正開放的複雜性。
他表示:「一個 AI 模型由許多組件組成:訓練集、權重、訓練和測試模型的程式等。要稱該模型為‘開放的’,就需要將整個鏈條作為開源提供。這是一個相對寬泛的定義。」
索布里耶提到,主要參與者之間缺乏一致性,這導致了對這個術語的困惑。
他說:「在主要參與者中,對於‘開放’的定義的擔憂始於 OpenAI,而 Meta 最近因其 LLAMA 模型而受到關注,儘管那是‘更開放的’。我們需要對什麼是開放模型有共同的理解。我們需要警惕任何‘開放洗牌’的情況,這在免費與開源軟體中已經出現過。」
索布里耶強調了一個潛在的陷阱,就是越來越普遍的“開放洗牌”,即組織聲稱透明卻施加限制。
他指出:「隨著雲端服務提供商提供收費版本的開源項目(例如數據庫),而不進行回饋,我們看到許多開源項目的變化:源代碼仍然是開放的,但增加了許多商業限制。」
他警告說:「Meta 和其他‘開放’的大型語言模型(LLM)提供商可能會走這條路,以保持其競爭優勢:對模型的更多開放,但卻阻止競爭者使用它們。」
DeepSeek 努力提高 AI 透明度
DeepSeek 是 AI 行業中一個迅速崛起的(雖然有爭議的)參與者,已經採取措施解決一些這些擔憂,通過開放其模型和程式碼的一部分來提高透明度。這一舉措受到讚揚,因為它促進了透明度並提供了安全見解。
斯蒂費爾表示:「DeepSeek 已經將模型及其權重以開源形式發布。下一步將提供對其託管服務的更大透明度,並讓人們了解他們如何對這些模型進行微調和在生產中運行。」
斯蒂費爾指出,這樣的透明度有重大好處。「這將使社區更容易審核他們的系統以查找安全風險,並使個人和組織能夠在生產中運行自己的 DeepSeek 版本。」
除了安全性,DeepSeek 還提供了如何大規模管理 AI 基礎設施的路線圖。
他說:「從透明度的角度來看,我們將看到 DeepSeek 如何運行其托管服務。這將有助於解決在發現他們的一些 Clickhouse 數據庫未加安全保護後出現的安全問題。」
斯蒂費爾強調,DeepSeek 在使用 Docker、Kubernetes(K8s)和其他基礎設施即代碼(IaC)配置方面的做法,可以幫助初創企業和愛好者建立類似的托管實例。
開源 AI 現在非常熱門
DeepSeek 的透明度舉措與開源 AI 的整體趨勢相吻合。IDC 的一份報告顯示,60% 的組織選擇開源 AI 模型,而不是商業替代品來進行他們的生成 AI(GenAI)項目。
Endor Labs 的研究進一步表明,組織每個應用程序平均使用 7 到 21 個開源模型。原因很明顯:利用最佳模型來完成特定任務並控制 API 成本。
斯蒂費爾說:「截至 2 月 7 日,Endor Labs 發現有超過 3,500 個額外模型已經從原始的 DeepSeek R1 模型中訓練或提煉出來。這顯示了開源 AI 模型社區的活力,以及為什麼安全團隊需要了解模型的血統及其潛在風險。」
對於索布里耶來說,開源 AI 模型的日益普及強調了需要評估其依賴性。
他表示:「我們需要將 AI 模型視為我們的軟體所依賴的主要依賴項。公司需要確保他們在法律上被允許使用這些模型,還要確保在運營風險和供應鏈風險方面是安全的,就像使用開源庫一樣。」
他強調,任何風險都可能延伸到訓練數據:「他們需要確信,用於訓練 LLM 的數據集沒有被污染或包含敏感的私人信息。」
建立系統化的 AI 模型風險管理方法
隨著開源 AI 的普及,風險管理變得越來越關鍵。斯蒂費爾概述了一個以三個關鍵步驟為中心的系統化方法:
- 發現:檢測您的組織目前使用的 AI 模型。
- 評估:審查這些模型的潛在風險,包括安全和運營問題。
- 回應:設置並執行護欄,確保安全的模型採用。
斯蒂費爾說:「關鍵在於找到促進創新與管理風險之間的合適平衡。我們需要給軟體工程團隊提供實驗的自由,但必須做到完全透明。安全團隊需要有清晰的視野和行動的洞察。」
索布里耶進一步指出,社區必須制定安全構建和採用 AI 模型的最佳實踐。需要一種共享的方法來評估 AI 模型,涉及安全性、質量、運營風險和開放性等參數。
超越透明性:負責任的 AI 未來的措施
為了確保 AI 的負責任增長,行業必須採取跨多個方向的控制措施:
- SaaS 模型:保護員工使用托管模型。
- API 集成:開發人員在應用程序中嵌入第三方 API(如 DeepSeek),透過像 OpenAI 的集成,只需兩行程式碼即可切換部署。
- 開源模型:開發人員利用社區構建的模型或從像 DeepSeek 這樣的公司維護的現有基礎上創建自己的模型。
索布里耶警告說,在快速的 AI 進展面前不要自滿。「社區需要建立最佳實踐,以安全和開放的方式開發 AI 模型,並制定評級它們的標準,包括安全性、質量、運營風險和開放性。」
斯蒂費爾簡明地總結道:「在多個方向上思考安全性,並對每個方向實施適當的控制。」
想了解更多來自行業領袖的 AI 和大數據資訊嗎?請查看在阿姆斯特丹、加州和倫敦舉行的 AI & Big Data Expo。這場綜合性活動與其他領先的活動共舉行,包括智能自動化會議、BlockX、數字轉型週以及網路安全與雲端博覽會。
在這裡探索更多即將舉行的企業技術活動和網絡研討會,這些活動由 TechForge 提供支持。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!