越獄問題持續存在
Adversa AI 的執行長 Alex Polyakov 在給《WIRED》的一封電子郵件中表示,”越獄問題持續存在,因為要完全消除它們幾乎是不可能的——就像軟體中的緩衝區溢出漏洞(已存在超過40年)或網路應用程式中的 SQL 注入漏洞(已困擾安全團隊超過二十年)一樣。”
人工智慧應用的風險
Cisco 的 Sampath 認為,隨著公司在應用程式中使用更多類型的人工智慧,風險也在增加。他說:“當你開始將這些模型放入重要的複雜系統中,而這些越獄突然導致下游問題,增加了責任、商業風險和各種企業問題時,這就變得非常重要。”
DeepSeek 的測試
Cisco 的研究人員從一個知名的標準化評估提示庫 HarmBench 中隨機選取了50個提示來測試 DeepSeek 的 R1。他們測試了來自六個 HarmBench 類別的提示,包括一般危害、網路犯罪、錯誤信息和非法活動。他們在本地機器上運行模型,而不是通過 DeepSeek 的網站或應用程式,這些會將數據發送到中國。
潛在的擔憂
除此之外,研究人員表示,他們還看到了一些潛在令人擔憂的結果,這些結果來自於使用西里爾字母和定制腳本等非語言攻擊來測試 R1。但是對於他們的初步測試,Sampath 表示,他的團隊希望專注於來自公認基準的發現。
模型性能比較
Cisco 還將 R1 在 HarmBench 提示上的性能與其他模型進行了比較。有些模型,如 Meta 的 Llama 3.1,表現幾乎和 DeepSeek 的 R1 一樣差。但 Sampath 強調,DeepSeek 的 R1 是一個特定的推理模型,生成答案需要更長的時間,但會利用更複雜的過程來嘗試產生更好的結果。因此,Sampath 認為,最好的比較是與 OpenAI 的 o1 推理模型,該模型在所有測試模型中表現最好。(Meta 沒有立即回應評論請求)。
DeepSeek 的限制
Adversa AI 的 Polyakov 解釋說,DeepSeek 似乎可以檢測並拒絕一些知名的越獄攻擊,他說:“看起來這些回應通常只是從 OpenAI 的數據集中複製過來的。”然而,Polyakov 表示,在他的公司對四種不同類型的越獄進行測試時,從語言到基於代碼的技巧,DeepSeek 的限制很容易被繞過。
越獄攻擊的挑戰
Polyakov 說:“每一種方法都運作得非常順利。”他說:“更令人擔憂的是,這些並不是新穎的‘零日’越獄——許多已經公開多年。”他聲稱,他看到模型在一些關於迷幻藥的指令上深入程度超過了他所見過的任何其他模型。
模型的脆弱性
Polyakov 補充說:“DeepSeek 只是每個模型都可以被攻破的另一個例子——這只是你投入多少努力的問題。有些攻擊可能會被修補,但攻擊面是無限的。如果你不持續對你的人工智慧進行紅隊測試,你就已經被妥協了。”
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!