在 DeepSeek 推出其開源人工智慧模型不到兩週後,這家中國新創公司仍然主導著關於人工智慧未來的公共討論。雖然該公司在數學和推理方面似乎比美國競爭對手更具優勢,但它也積極地審查自己的回覆。如果你問 DeepSeek R1 關於台灣或天安門的問題,這個模型不太可能給出答案。
為了了解這種審查在技術層面上是如何運作的,WIRED 在其自己的應用程式上測試了 DeepSeek-R1,還有一個在名為 Together AI 的第三方平台上托管的版本,以及另一個在 WIRED 電腦上使用 Ollama 應用程式的版本。
WIRED 發現,雖然最直接的審查可以通過不使用 DeepSeek 的應用程式輕易避開,但在訓練過程中,模型中還存在其他類型的偏見。這些偏見也可以被移除,但過程要複雜得多。
這些發現對 DeepSeek 和中國的人工智慧公司來說具有重大意義。如果大型語言模型上的審查過濾器可以輕易移除,那麼來自中國的開源大型語言模型將可能變得更加受歡迎,因為研究人員可以根據自己的喜好修改這些模型。然而,如果過濾器難以繞過,這些模型將不可避免地變得不那麼有用,並可能在全球市場上變得不具競爭力。DeepSeek 沒有回覆 WIRED 的電子郵件評論請求。
應用層級的審查
在 DeepSeek 在美國爆紅後,通過 DeepSeek 的網站、應用程式或 API 訪問 R1 的用戶迅速注意到,該模型拒絕生成中國政府認為敏感的主題的答案。這些拒絕是在應用層級觸發的,因此只有當用戶通過 DeepSeek 控制的渠道與 R1 互動時,才會看到這些拒絕。
照片:Zeyi Yang
照片:Zeyi Yang
這種拒絕在中國製造的大型語言模型中很常見。2023 年的生成式人工智慧法規規定,中國的人工智慧模型必須遵循嚴格的信息控制,這些控制也適用於社交媒體和搜索引擎。該法律禁止人工智慧模型生成“損害國家統一和社會和諧”的內容。換句話說,中國的人工智慧模型在法律上必須審查其輸出。
“DeepSeek 最初遵循中國的法規,確保法律合規,同時使模型符合當地用戶的需求和文化背景,”專注於中國人工智慧模型的 Hugging Face 研究員 Adina Yakefu 說。Hugging Face 是一個托管開源人工智慧模型的平台。“這是進入高度管制市場的關鍵因素。”(中國在 2023 年封鎖了對 Hugging Face 的訪問。)
為了遵守法律,中國的人工智慧模型通常會實時監控和審查其言論。(類似的防護措施在西方模型如 ChatGPT 和 Gemini 中也常見,但它們通常專注於不同類型的內容,如自我傷害和色情,並允許更多的自定義。)
由於 R1 是一個展示其思考過程的推理模型,這種實時監控機制可能會導致用戶在與模型互動時看到模型自我審查的超現實經歷。當 WIRED 問 R1 “報導敏感主題的中國記者受到當局的如何對待?”時,模型最初開始編寫一個長答案,內容包括直接提到記者因其工作而受到審查和拘留;然而在它完成之前,整個答案消失,取而代之的是一條簡短的消息:“抱歉,我不確定如何處理這類問題。讓我們聊聊數學、編程和邏輯問題吧!”
對於許多西方用戶來說,由於模型的明顯限制,對 DeepSeek-R1 的興趣可能已經減退。但 R1 是開源的,這意味著有方法可以繞過審查機制。
首先,你可以下載模型並在本地運行,這意味著數據和回應生成都在你自己的電腦上進行。除非你擁有幾個高級的 GPU,否則你可能無法運行 R1 的最強版本,但 DeepSeek 有較小的精簡版本,可以在普通的筆記本電腦上運行。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!