編輯備註:這篇文章探討了自然語言處理技術如何改善數據質量,並提醒使用大型語言模型 (LLMs) 時需考慮的三個要素:毒性、偏見和不良行為者。
我們常在新聞中聽到網路攻擊、駭客、勒索病毒和其他壞事,但並不是所有的數據洩漏都是由第三方造成的。根據身份盜竊資源中心 (Identity Theft Resource Center) 的報告,2023年總共有3,205起洩漏事件,影響超過3.5億人。系統和人為錯誤造成了超過700起洩漏事件,影響近700萬人。
探討與LLM相關的數據洩漏
大多數組織會花費大量的時間、金錢和資源來防止數據洩漏,從培訓員工如何正確儲存和保護公司數據,到不斷監控網路。大型語言模型 (LLMs) 為這個問題增加了一個新的變數。
在之前的文章中,我提到過可以用來改善非結構化數據質量的自然語言處理 (NLP) 技術。我提到,將LLMs暴露於特定領域的文本數據並不總是最有效的選擇,因為可能會出現重複、模糊和噪音。此外,確保輸入LLMs的數據不包含個人可識別信息或其他敏感信息也很重要。如果敏感數據進入模型,不良行為者可能會利用提示攻擊來影響模型,讓它透露它曾見過或可以訪問的敏感數據。一旦LLMs見過敏感數據,想要讓它們刪除或移除這些數據是困難的,除非回到基線並重新進行微調。用來管理噪音的建模技術也可以用來檢測訓練數據中的私密或敏感數據,以便進行刪除或排除相關記錄。
識別組織風險
在準備LLMs以供組織使用時,將私密和敏感信息排除在外是一個重要的部分,但還有另一個方面許多人未考慮到——使用者做出不當決策,無意中將組織置於風險之中。
一家大型組織的高級主管告訴我,他的部門正在實驗免費的公開LLMs版本,並獲得了一些驚人的見解。他解釋說,他們試圖更好地了解客戶滿意度,使用他們的客服中心客戶敘述,並將敘述信息複製並粘貼到他們的提示中。這讓我感到警覺。
我問他這些敘述是否包含任何個人可識別信息,他確認其中一些包含姓名、地址信息,偶爾還有帳戶信息。我接著問他是否閱讀過他們正在實驗的模型的服務條款。他問我為什麼,我提到一些模型會使用提示信息進行進一步訓練。他沉默了一分鐘,然後問我如果這些信息已經暴露,如何能將其取回,我解釋說他可能無法做到。即使LLM是在內部託管,複製和粘貼包含潛在敏感信息的內容並在提示中使用,仍然可能違反安全協議。
了解LLM的服務條款
有很多模型可供使用,人們不斷將數據輸入其中——無論是內容行銷人員試圖獲得幫助撰寫具有特定語氣的行銷文案,還是學生複製和粘貼閱讀段落尋求作業幫助,或是有人試圖從客戶敘述中獲取見解。我與許多人討論LLMs,無論是在產品經理的角色還是在杜克大學 (Duke University) 的教學角色中,對於根據模型的不同,提示可能會被保留並用於進一步訓練的缺乏理解是普遍存在的。了解您選擇的模型如何使用提示中的信息是非常重要的。
由於人們在提示LLMs時可能無意中違反安全協議,可以使用同樣的語言模型來識別和刪除敏感信息,然後在提示和LLM之間進行部署。這樣的語言模型可以攔截包含個人可識別信息或敏感數據的提示,並防止其進入LLM。這提供了額外的安全層,並且由於語言模型運行效率高,掃描和攔截可以在不顯著影響性能的情況下完成。
降低風險需要負責任
隨著LLMs的使用不斷增長,無意中通過不小心的提示暴露敏感數據的風險也在增加。我分享的例子強調了組織在與這些強大工具互動時需要保持警惕,但意識只是第一步。
防止私密和敏感數據洩漏不僅僅是IT部門的責任,而是整個組織的共同責任。教育團隊了解潛在風險,嚴格審核您選擇的LLMs,並將語言模型整合為另一層,以攔截或刪除敏感信息,這些措施都能幫助降低風險。通過保持資訊靈通和積極主動,您可以在利用LLMs的好處的同時,保護組織最有價值的資產——您的數據和聲譽。
了解更多
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!