星期四, 31 7 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home AI 智慧產業

Endor Labs:人工智慧透明度與「開放清洗」

2025-02-25
in AI 智慧產業
0 0
0
Endor Labs:人工智慧透明度與「開放清洗」
Share on FacebookShare on Twitter
Your Ad


隨著人工智慧(AI)產業越來越重視透明度與安全性,關於「開放性」的真實意義的討論也愈加激烈。來自開源安全公司 Endor Labs 的專家們針對這些重要議題發表了看法。

Endor Labs 的高級產品行銷經理安德魯·斯蒂費爾(Andrew Stiefel)強調,將從軟體安全中學到的教訓應用於 AI 系統是非常重要的。

他說:「美國政府在 2021 年發佈的行政命令,旨在改善美國的網路安全,要求組織為每個銷售給聯邦政府機構的產品製作一份軟體材料清單(SBOM)。」

SBOM 實際上是一份清單,詳細列出了產品中的開源組件,幫助檢測漏洞。斯蒂費爾認為,「將這些原則應用於 AI 系統是合乎邏輯的下一步。」

他解釋說:「為公民和政府員工提供更好的透明度,不僅能提高安全性,還能讓人們了解模型的數據集、訓練、權重和其他組件。」

AI 模型的「開放性」意味著什麼?

Endor Labs 的高級產品經理朱利安·索布里耶(Julien Sobrier)為有關 AI 透明度和「開放性」的討論增添了重要的背景。索布里耶解釋了將 AI 系統歸類為真正開放的複雜性。

他表示:「一個 AI 模型由許多組件組成:訓練集、權重、訓練和測試模型的程式等。要稱該模型為‘開放的’,就需要將整個鏈條作為開源提供。這是一個相對寬泛的定義。」

索布里耶提到,主要參與者之間缺乏一致性,這導致了對這個術語的困惑。

他說:「在主要參與者中,對於‘開放’的定義的擔憂始於 OpenAI,而 Meta 最近因其 LLAMA 模型而受到關注,儘管那是‘更開放的’。我們需要對什麼是開放模型有共同的理解。我們需要警惕任何‘開放洗牌’的情況,這在免費與開源軟體中已經出現過。」

索布里耶強調了一個潛在的陷阱,就是越來越普遍的“開放洗牌”,即組織聲稱透明卻施加限制。

他指出:「隨著雲端服務提供商提供收費版本的開源項目(例如數據庫),而不進行回饋,我們看到許多開源項目的變化:源代碼仍然是開放的,但增加了許多商業限制。」

他警告說:「Meta 和其他‘開放’的大型語言模型(LLM)提供商可能會走這條路,以保持其競爭優勢:對模型的更多開放,但卻阻止競爭者使用它們。」

DeepSeek 努力提高 AI 透明度

DeepSeek 是 AI 行業中一個迅速崛起的(雖然有爭議的)參與者,已經採取措施解決一些這些擔憂,通過開放其模型和程式碼的一部分來提高透明度。這一舉措受到讚揚,因為它促進了透明度並提供了安全見解。

斯蒂費爾表示:「DeepSeek 已經將模型及其權重以開源形式發布。下一步將提供對其託管服務的更大透明度,並讓人們了解他們如何對這些模型進行微調和在生產中運行。」

斯蒂費爾指出,這樣的透明度有重大好處。「這將使社區更容易審核他們的系統以查找安全風險,並使個人和組織能夠在生產中運行自己的 DeepSeek 版本。」

除了安全性,DeepSeek 還提供了如何大規模管理 AI 基礎設施的路線圖。

他說:「從透明度的角度來看,我們將看到 DeepSeek 如何運行其托管服務。這將有助於解決在發現他們的一些 Clickhouse 數據庫未加安全保護後出現的安全問題。」

斯蒂費爾強調,DeepSeek 在使用 Docker、Kubernetes(K8s)和其他基礎設施即代碼(IaC)配置方面的做法,可以幫助初創企業和愛好者建立類似的托管實例。

開源 AI 現在非常熱門

DeepSeek 的透明度舉措與開源 AI 的整體趨勢相吻合。IDC 的一份報告顯示,60% 的組織選擇開源 AI 模型,而不是商業替代品來進行他們的生成 AI(GenAI)項目。

Endor Labs 的研究進一步表明,組織每個應用程序平均使用 7 到 21 個開源模型。原因很明顯:利用最佳模型來完成特定任務並控制 API 成本。

斯蒂費爾說:「截至 2 月 7 日,Endor Labs 發現有超過 3,500 個額外模型已經從原始的 DeepSeek R1 模型中訓練或提煉出來。這顯示了開源 AI 模型社區的活力,以及為什麼安全團隊需要了解模型的血統及其潛在風險。」

對於索布里耶來說,開源 AI 模型的日益普及強調了需要評估其依賴性。

他表示:「我們需要將 AI 模型視為我們的軟體所依賴的主要依賴項。公司需要確保他們在法律上被允許使用這些模型,還要確保在運營風險和供應鏈風險方面是安全的,就像使用開源庫一樣。」

他強調,任何風險都可能延伸到訓練數據:「他們需要確信,用於訓練 LLM 的數據集沒有被污染或包含敏感的私人信息。」

建立系統化的 AI 模型風險管理方法

隨著開源 AI 的普及,風險管理變得越來越關鍵。斯蒂費爾概述了一個以三個關鍵步驟為中心的系統化方法:

  • 發現:檢測您的組織目前使用的 AI 模型。
  • 評估:審查這些模型的潛在風險,包括安全和運營問題。
  • 回應:設置並執行護欄,確保安全的模型採用。

斯蒂費爾說:「關鍵在於找到促進創新與管理風險之間的合適平衡。我們需要給軟體工程團隊提供實驗的自由,但必須做到完全透明。安全團隊需要有清晰的視野和行動的洞察。」

索布里耶進一步指出,社區必須制定安全構建和採用 AI 模型的最佳實踐。需要一種共享的方法來評估 AI 模型,涉及安全性、質量、運營風險和開放性等參數。

超越透明性:負責任的 AI 未來的措施

為了確保 AI 的負責任增長,行業必須採取跨多個方向的控制措施:

  • SaaS 模型:保護員工使用托管模型。
  • API 集成:開發人員在應用程序中嵌入第三方 API(如 DeepSeek),透過像 OpenAI 的集成,只需兩行程式碼即可切換部署。
  • 開源模型:開發人員利用社區構建的模型或從像 DeepSeek 這樣的公司維護的現有基礎上創建自己的模型。

索布里耶警告說,在快速的 AI 進展面前不要自滿。「社區需要建立最佳實踐,以安全和開放的方式開發 AI 模型,並制定評級它們的標準,包括安全性、質量、運營風險和開放性。」

斯蒂費爾簡明地總結道:「在多個方向上思考安全性,並對每個方向實施適當的控制。」

想了解更多來自行業領袖的 AI 和大數據資訊嗎?請查看在阿姆斯特丹、加州和倫敦舉行的 AI & Big Data Expo。這場綜合性活動與其他領先的活動共舉行,包括智能自動化會議、BlockX、數字轉型週以及網路安全與雲端博覽會。

在這裡探索更多即將舉行的企業技術活動和網絡研討會,這些活動由 TechForge 提供支持。



新聞來源

本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!

Tags: aiartificial intelligencedevelopmentEndorethicsLabs人工智慧透明度與開放清洗open sourcesecuritytransparency
Previous Post

HUD 的電視播放了 AI 生成的唐納·川普親吻伊隆·馬斯克腳的影片

Next Post

深入探討因臉書貼文而被起底的女性在Telegram群組中的情況

Related Posts

DeepSeek 是提醒人們以謹慎態度接觸AI未知領域的警示
AI 智慧產業

DeepSeek 是提醒人們以謹慎態度接觸AI未知領域的警示

2025-03-17
ServiceNow 部署 AI 代理以提升企業工作流程
AI 智慧產業

ServiceNow 部署 AI 代理以提升企業工作流程

2025-03-14
谷歌推出最新的開放式人工智慧模型
AI 智慧產業

谷歌推出最新的開放式人工智慧模型

2025-03-12
阿里巴巴 Qwen QwQ-32B:縮放強化學習展示
AI 智慧產業

阿里巴巴 Qwen QwQ-32B:縮放強化學習展示

2025-03-06
人工智慧語音模型減少醫療轉錄錯誤
AI 智慧產業

人工智慧語音模型減少醫療轉錄錯誤

2025-03-04
安全數據以促進更好的決策與合作:擁抱數據清理空間
AI 智慧產業

安全數據以促進更好的決策與合作:擁抱數據清理空間

2025-03-04
Next Post
深入探討因臉書貼文而被起底的女性在Telegram群組中的情況

深入探討因臉書貼文而被起底的女性在Telegram群組中的情況

Anthropic推出全球首款「混合推理」AI模型

Anthropic推出全球首款「混合推理」AI模型

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 6 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。