星期三, 14 5 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 自然語言處理

三種自然語言處理方法可用於識別大型語言模型相關的私人數據洩漏並降低風險

2024-09-06
in 自然語言處理
0 0
0
三種自然語言處理方法可用於識別大型語言模型相關的私人數據洩漏並降低風險
Share on FacebookShare on Twitter
Your Ad


編輯備註:這篇文章探討了自然語言處理技術如何改善數據質量,並提醒使用大型語言模型 (LLMs) 時需考慮的三個要素:毒性、偏見和不良行為者。

我們常在新聞中聽到網路攻擊、駭客、勒索病毒和其他壞事,但並不是所有的數據洩漏都是由第三方造成的。根據身份盜竊資源中心 (Identity Theft Resource Center) 的報告,2023年總共有3,205起洩漏事件,影響超過3.5億人。系統和人為錯誤造成了超過700起洩漏事件,影響近700萬人。

探討與LLM相關的數據洩漏

大多數組織會花費大量的時間、金錢和資源來防止數據洩漏,從培訓員工如何正確儲存和保護公司數據,到不斷監控網路。大型語言模型 (LLMs) 為這個問題增加了一個新的變數。

在之前的文章中,我提到過可以用來改善非結構化數據質量的自然語言處理 (NLP) 技術。我提到,將LLMs暴露於特定領域的文本數據並不總是最有效的選擇,因為可能會出現重複、模糊和噪音。此外,確保輸入LLMs的數據不包含個人可識別信息或其他敏感信息也很重要。如果敏感數據進入模型,不良行為者可能會利用提示攻擊來影響模型,讓它透露它曾見過或可以訪問的敏感數據。一旦LLMs見過敏感數據,想要讓它們刪除或移除這些數據是困難的,除非回到基線並重新進行微調。用來管理噪音的建模技術也可以用來檢測訓練數據中的私密或敏感數據,以便進行刪除或排除相關記錄。

識別組織風險

在準備LLMs以供組織使用時,將私密和敏感信息排除在外是一個重要的部分,但還有另一個方面許多人未考慮到——使用者做出不當決策,無意中將組織置於風險之中。

一家大型組織的高級主管告訴我,他的部門正在實驗免費的公開LLMs版本,並獲得了一些驚人的見解。他解釋說,他們試圖更好地了解客戶滿意度,使用他們的客服中心客戶敘述,並將敘述信息複製並粘貼到他們的提示中。這讓我感到警覺。

我問他這些敘述是否包含任何個人可識別信息,他確認其中一些包含姓名、地址信息,偶爾還有帳戶信息。我接著問他是否閱讀過他們正在實驗的模型的服務條款。他問我為什麼,我提到一些模型會使用提示信息進行進一步訓練。他沉默了一分鐘,然後問我如果這些信息已經暴露,如何能將其取回,我解釋說他可能無法做到。即使LLM是在內部託管,複製和粘貼包含潛在敏感信息的內容並在提示中使用,仍然可能違反安全協議。

了解LLM的服務條款

有很多模型可供使用,人們不斷將數據輸入其中——無論是內容行銷人員試圖獲得幫助撰寫具有特定語氣的行銷文案,還是學生複製和粘貼閱讀段落尋求作業幫助,或是有人試圖從客戶敘述中獲取見解。我與許多人討論LLMs,無論是在產品經理的角色還是在杜克大學 (Duke University) 的教學角色中,對於根據模型的不同,提示可能會被保留並用於進一步訓練的缺乏理解是普遍存在的。了解您選擇的模型如何使用提示中的信息是非常重要的。

由於人們在提示LLMs時可能無意中違反安全協議,可以使用同樣的語言模型來識別和刪除敏感信息,然後在提示和LLM之間進行部署。這樣的語言模型可以攔截包含個人可識別信息或敏感數據的提示,並防止其進入LLM。這提供了額外的安全層,並且由於語言模型運行效率高,掃描和攔截可以在不顯著影響性能的情況下完成。

降低風險需要負責任

隨著LLMs的使用不斷增長,無意中通過不小心的提示暴露敏感數據的風險也在增加。我分享的例子強調了組織在與這些強大工具互動時需要保持警惕,但意識只是第一步。

防止私密和敏感數據洩漏不僅僅是IT部門的責任,而是整個組織的共同責任。教育團隊了解潛在風險,嚴格審核您選擇的LLMs,並將語言模型整合為另一層,以攔截或刪除敏感信息,這些措施都能幫助降低風險。通過保持資訊靈通和積極主動,您可以在利用LLMs的好處的同時,保護組織最有價值的資產——您的數據和聲譽。

了解更多



新聞來源

本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!

Tags: 三種自然語言處理方法可用於識別大型語言模型相關的私人數據洩漏並降低風險
Previous Post

包容性治理:生成式人工智慧如何使公共服務對所有人可及

Next Post

研究評估刺激丘腦的癲癇風險 | 麻省理工學院新聞

Related Posts

OpenAI 正在開發代理人 — 每週 AI 通訊 (2025 年 3 月 17 日)
自然語言處理

OpenAI 正在開發代理人 — 每週 AI 通訊 (2025 年 3 月 17 日)

2025-03-17
什麼是自然語言語義學?
自然語言處理

什麼是自然語言語義學?

2025-03-13
阿拉伯方言的詞彙距離研究:全面概述
自然語言處理

阿拉伯方言的詞彙距離研究:全面概述

2025-03-12
阿里巴巴發布 QwQ-32B 並附上理由 — 每週 AI 通訊 (2025 年 3 月 10 日)
自然語言處理

阿里巴巴發布 QwQ-32B 並附上理由 — 每週 AI 通訊 (2025 年 3 月 10 日)

2025-03-10
GPT 4.5 發佈! — 每週 AI 通訊 (2025 年 3 月 3 日)
自然語言處理

GPT 4.5 發佈! — 每週 AI 通訊 (2025 年 3 月 3 日)

2025-03-03
自然語言處理的主要關鍵領域
自然語言處理

自然語言處理的主要關鍵領域

2025-03-03
Next Post
研究評估刺激丘腦的癲癇風險 | 麻省理工學院新聞

研究評估刺激丘腦的癲癇風險 | 麻省理工學院新聞

人工智慧如何影響關鍵人類決策

人工智慧如何影響關鍵人類決策

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。