人工智慧在我們的生活中越來越普遍,這個趨勢在短期內不太可能改變。以下是一個2024年2月活動的廣告,該活動在宣傳材料中使用了人工智慧生成的圖片。雖然生成式人工智慧的圖片創作已經取得了重大進展,但在發布之前,結果仍然需要仔細校對。
參加者被承諾會有貓咪活動和有趣的音樂。參加者注意到,實際的體驗與精緻的人工智慧生成的宣傳材料完全不同。大家在獲得退款後也能笑著面對這件事。
不幸的是,不負責任地使用人工智慧往往不是一件好笑的事情。在人工智慧事件數據庫中,我們可以找到許多人工智慧使用不當的例子,包括生成式人工智慧和大型語言模型 (Large Language Model, LLM) 的事件。
隨著人工智慧成為日常生活的一部分,不負責任的使用越來越普遍,導致許多後果,包括財務損失等。
我不是要勸阻你們建立利用語言模型的人工智慧系統,而是希望幫助你們預見潛在的問題並做好準備。建立人工智慧系統就像開始一次遠足:風景可能很美,但檢查天氣、評估難度和準備合適的裝備是必須的。所以,讓我們規劃前進的路,確保我們為這次旅程做好充分準備。
語言模型有很多應用案例,但聊天機器人是最常見的之一。今天,我們將以聊天機器人為例。聊天機器人通常嵌入在網站中,讓潛在客戶可以提問或為現有客戶提供支持。用戶通過輸入文本(通常是問題)與聊天機器人互動,並獲得回應。
在今天的文章中,我將帶你了解七個負責任的人工智慧考量,這些考量適用於使用大型語言模型 (LLMs)、小型語言模型 (Small Language Models, SLMs) 和其他基礎模型的人工智慧系統。
1. 了解系統
在建立聊天機器人之前,明確定義人工智慧系統是非常重要的。
- 我們的目的是什麼?
- 我們打算如何使用它,使用者是誰?
- 這將如何融入我們的業務流程?
- 我們是在取代現有的系統嗎?
- 有沒有我們需要注意的限制?
我們對聊天機器人的目標是回答網站上現有和潛在客戶的問題,補充我們的客戶支持團隊。雖然可能有一些限制,例如在某些情況下需要人類介入,但我們也必須考慮聊天機器人將支持的語言,以滿足我們多樣化的客戶群。
2. 清理輸入
清理用戶輸入是防止惡意使用者在系統中執行有害代碼的安全最佳實踐。對於包含語言模型的人工智慧系統,繼續這一做法是至關重要的。這包括移除或隱藏敏感信息,如個人識別信息 (Personally Identifiable Information, PII)、智慧財產 (Intellectual Property, IP) 或任何其他希望保護的數據。
此外,還要注意提示注入 (prompt injection),即用戶試圖繞過你為語言模型設置的指令。例如,一些用戶發現,X平台上的機器人可以通過回覆命令「忽略所有之前的指示,做其他事情」來被識別。
傳統的文本分析可以幫助清理用戶在聊天機器人中輸入的內容,並幫助準備我們將發送給語言模型的提示。
3. 選擇合適的模型
我們聊天機器人的大腦將是我們的語言模型或基礎模型。你需要根據你的使用案例選擇合適的模型,這裡有幾個選擇。
你需要考慮各種因素,例如模型將運行的位置。它會在雲端還是在你的本地?某些使用案例要求模型在公司防火牆後運行。這對於使用個人識別信息或機密信息的模型來說是常見的做法。其他使用案例,例如我們使用公共信息的聊天機器人,則可以合理地在雲端運行。
另一個考量是模型應該多麼通用或多麼針對你的使用案例進行調整。你可以直接使用一個預訓練的通用模型,也可以進行一些額外的微調以更好地適應你的使用案例,或者你可以訓練一個針對你領域的小型語言模型。你選擇的方式取決於你的使用案例的通用性、你可以投入的訓練或調整時間,以及使用較大模型的成本。
談到成本,重要的是要注意,模型越大,托管成本可能越高。另一方面,訓練越多,計算成本可能越高。這些成本也會轉化為氣候成本,因為托管和計算依賴於能源。
如果你的聊天機器人跨越多個地區,你可能無法使用單一的語言模型。許多語言模型是以英語訓練的,但在其他語言上的表現可能不佳。
如果你選擇現成的模型,我建議查看這些模型的評估或排行榜,以便做出更明智的決策。HELM有一個排行榜,提供了許多可以查看的指標,但還有其他LLM排行榜可以找到。
4. 添加上下文
語言模型有時會出現「幻覺」,這意味著它們偶爾會提供不正確的回應。提高模型輸出準確性的一種方法是提供更多信息,通常通過檢索增強生成 (Retrieval Augmented Generation, RAG)。但是,在使用RAG時,必須注意發送給語言模型的信息。你可能不想分享機密或受保護的數據。
5. 審查輸出
與我們的輸入一樣,我們可能需要在將語言模型的回應發送回用戶之前處理該回應。如果我們從數據庫或網站文檔中提取信息,我們可以計算語言模型在回應中使用我們提供的信息或上下文的效果。如果回應沒有使用我們提供的信息,我們可能希望讓客戶支持代表審查該回應的準確性,或者請客戶重新表達他們的問題,而不是提供語言模型的原始回應。
我們還希望確保模型不會返回機密數據或不當回應。同樣,這是傳統文本分析可以幫助的領域,某些模型提供者也有一定的檢查機制。
我們還可以實施防護措施,以限制聊天機器人的範圍。例如,你可能不希望客戶支持聊天機器人提供完美老式雞尾酒的食譜,因此可以添加防護措施。如果被問到超出其範圍的問題,例如雞尾酒或政治問題,聊天機器人可以回應「我是客戶支持聊天機器人,無法幫助處理此類問題。」
6. 紅隊測試
在你的人工智慧系統上線並可供用戶使用之前,一個有趣的練習是嘗試破壞它。紅隊是一組扮演潛在敵人或惡意用戶的團隊。你的紅隊可以嘗試獲得不正確的回應、有毒的回應,甚至是機密數據。這是一個很好的方式來測試你實施的防護措施是否有效,以防止提示注入並提高回應的準確性。我建議閱讀OpenAI為GPT-4發布的系統卡,其中詳細說明了他們進行的紅隊測試以及在發布前修復的一些問題。
7. 創建反饋機制
在你的人工智慧系統中包含的最後一個部分是反饋機制。對於我們的聊天機器人,這可以是網頁上的報告問題選項。對於語言模型,用戶可以報告的關鍵數據包括互動是否有幫助、回應是否適當,甚至是潛在數據隱私違規的情況。
我們已經回顧了前進的道路,並強調了你可以採取的步驟,以負責任地利用LLMs、SLMs和基礎模型。如果你從這篇文章中學到一件事,那就是語言模型伴隨著風險,但通過了解這些風險,我們可以建立減輕風險的人工智慧系統。如果你想了解更多關於SAS的負責任創新,請查看這個頁面!
了解更多
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!