隨著企業越來越多地使用生成式人工智慧(AI)來簡化流程、提高效率並在當今快速變化的商業環境中獲得競爭優勢,他們尋求測量和監控其AI服務使用情況的機制。
為了幫助您在採用生成式AI技術的過程中進行導航並主動測量您的生成式AI實施,AWS開發了AWS Audit Manager生成式AI最佳實踐框架。這個框架提供了一種結構化的方法來評估和採用生成式AI技術,並解決了重要的方面,如策略對齊、治理、風險評估以及安全和運營最佳實踐。您可以在實施生成式AI工作負載時在AWS Audit Manager中使用該框架,通過Audit Manager的自動化證據收集和自定義評估報告功能來測量和監控現有工作負載。
在這篇博客文章中,我們將介紹AWS Audit Manager生成式AI最佳實踐框架,以及它如何在您的生成式AI旅程中幫助您。我們將重點介紹部署生成式AI工作負載時需要優先考慮的關鍵事項,並討論該框架如何通過Audit Manager促進生成式AI特定控制的審計和合規性。
開始生成式AI旅程
在為您的組織引入生成式AI的準備過程中,一個重要的考慮因素是需要將您的風險管理策略與強有力的緩解措施對齊。潛在風險的例子包括以下內容:
數據質量、可靠性和偏見:用於訓練模型的數據質量差可能導致輸出不一致、不準確或有偏見,這可能對組織產生重大財務和監管影響。例如,基於有偏見數據訓練的語言模型可能會生成加強有害刻板印象或傳播錯誤信息的文本。同樣,基於有偏見的產品評論或評分訓練AI可能會導致產品建議不準確反映產品質量或用戶偏好。
模型可解釋性和透明性:許多生成式AI模型的模糊性質使得理解它們如何得出特定輸出或決策變得具有挑戰性。例如,如果模型用於生成創意內容,如故事或學習材料,可能難以理解為什麼生成某些輸出,包括潛在的偏見或不當內容。
數據隱私和安全性:生成式AI模型是在大量數據上訓練的,這可能無意中包括敏感或個人信息。例如,訓練生成文本的模型可能會生成包含其訓練數據中的個人詳細信息的句子。
AWS幫助組織負責任地使用這項技術,同時幫助他們遵循最佳實踐。作為使組織能夠為生成式AI系統創建全面風險管理策略的一部分,AWS構建了AWS Audit Manager生成式AI最佳實踐框架,該框架映射到AWS Audit Manager中的Amazon Bedrock和Amazon SageMaker。
Amazon Bedrock是一項託管服務,能夠創建、管理和擴展機器學習(ML)和AI服務,同時促進對安全性和定義的合規性要求的遵守。Amazon SageMaker是一項完全託管的ML服務,可以為需要深度定制和模型微調的擴展用例構建、訓練和部署ML模型。
您可以使用此框架來促進您的審計和合規要求,利用控制來更負責任、道德和有效地部署生成式AI模型。
該框架分為四個支柱,如下所示:
數據治理:數據是生成式AI模型的基礎,訓練數據的質量和多樣性可以顯著影響模型的性能和輸出。數據治理支柱專注於促進數據管理實踐,如數據來源、數據質量、數據隱私和數據偏見。
模型開發:此支柱專注於生成式AI模型的負責任開發和測試,涵蓋模型架構選擇、模型訓練和模型評估等方面。
模型部署:此支柱解決了在生產環境中部署生成式AI模型的挑戰,涵蓋模型部署策略、基礎設施考慮和訪問控制等方面。
監控與監督:此支柱專注於生成式AI模型在生產環境中的持續監控和治理,涵蓋模型性能監控和事件響應計劃等方面。
您還可以使用Amazon Bedrock Guardrails在基礎模型(FMs)內置的保護之上提供額外的控制層,以幫助提供符合您組織政策和原則的相關和安全的用戶體驗。
每個組織的生成式AI旅程都是獨特的,受行業特定法規、風險承受能力和生成式AI部署規模等因素影響。通過將框架與Amazon Bedrock或Amazon SageMaker集成,您可以根據組織的獨特需求自定義控制,將生成式AI部署與您的特定風險管理策略對齊。這種自定義對於高度監管的行業,尤其是金融行業,特別有價值。
例如,您可以將不準確輸出的風險映射到與數據質量和模型驗證相關的控制。同樣,您可以將數據安全風險映射到與訪問管理和加密相關的控制。
讓我們考慮一個使用這些風險子集的例子,以了解您如何執行此映射。一家金融服務公司決定使用生成式AI模型來開發一個能夠理解複雜客戶詢問並為其客戶門戶提供準確和量身定制回應的聊天機器人。儘管聊天機器人可以大大提升客戶體驗和運營效率,但它們也引入了您需要了解和衡量的風險,以便您可以制定相應的緩解策略。
金融組織內部審計功能中的審計員希望使用AWS Audit Manager生成式AI最佳實踐框架來評估與應用程序相關的以下風險樣本的合規性:
負責任:驗證聊天機器人是否遵循公平性和透明性等倫理原則,並避免對某些客戶群體的偏見或歧視。
準確:驗證聊天機器人回應的可靠性和準確性,特別是在處理敏感財務信息或提供複雜金融產品建議時。
安全:保護用於訓練生成式AI模型的數據的完整性和安全性,防止未經授權的訪問,並驗證敏感客戶數據與用於訓練的數據分開。
示例映射
我們在這裡提供了一個示例映射,說明您如何在Audit Manager中使用框架來制定風險管理策略。根據您的個別控制目標和組織要求,您可以進一步自定義控制,證據收集可以自動化或手動定義。示例映射如下:
負責任:實施AI模型監控和可解釋性機制,以檢測和緩解潛在的偏見或不公平結果。
RESPAI3.8:記錄風險和容忍度:定義、記錄和實施具體控制,以解決識別出的風險和組織風險容忍度。
RESPAI3.9:開發AI RACI:定義組織角色和責任、溝通線路和控制的所有權,以解決識別出的風險。確保生成式AI風險的映射、測量和管理對組織內的個人和團隊清晰可見。
RESPAI3.13:持續風險監控:定期進行回顧和審查政策和程序,以確定是否應考慮新風險,以及當前風險是否根據AI性能、事件和用戶反饋得到解決。
RESPAI3.15:倫理指南:制定並遵循生成式AI模型的部署和使用的倫理指南。
準確:實施強大的數據質量檢查、模型驗證過程和持續監控,以確保生成式AI聊天機器人輸出的準確性和可靠性。
ACCUAI3.4:定期審計:定期進行審查,以評估模型隨時間的準確性,特別是在系統更新或整合新數據源後。
ACCUAI3.6:來源驗證:確保數據來源是可信的、可靠的,並且數據質量高。
ACCUAI3.14:高質量數據來源:生成式AI的準確性在很大程度上取決於其訓練數據的質量。確保數據具有代表性、全面性,並且沒有偏見或錯誤。
安全:實施強大的訪問控制、數據加密和安全監控措施,以保護生成式AI聊天機器人系統和訓練數據。
SECAI3.2:數據傳輸中的加密:對AI模型的輸入和輸出數據實施端到端加密,以達到行業最低標準。
SECAI3.3:靜態數據加密:對用於訓練AI模型的存儲數據以及AI模型生成的元數據實施靜態數據加密。
注意:這是一個可以使用AWS Config作為底層數據源配置自動化證據收集的控制示例,或根據控制範圍進一步自定義其他數據源。
SECAI3.7:最小特權:記錄、實施和強制執行最小特權原則,當授予生成式AI系統的訪問權限時。
SECAI3.8:定期審查:記錄、實施和強制執行對生成式AI系統用戶訪問的定期審查。
注意:這是一個可以根據每個組織定義的具體政策和程序配置手動證據收集的控制示例。
SECAI3.15:訪問日誌:要求並啟用機制,允許用戶請求訪問生成式AI模型。確保訪問請求被正確記錄、審查和批准。
結論
對於機構,尤其是那些在高度監管行業的機構,主動應對與生成式AI相關的新發展非常重要。使用AWS Audit Manager生成式AI最佳實踐框架作為全面風險管理策略的一部分,可以幫助您走在前列,採用靈活和負責任的方法來面對生成式AI。
該框架提供的指導,加上Audit Manager、Amazon Bedrock和SageMaker的功能,可以幫助您建立安全和受控的生成式AI實施環境,自動化證據收集和風險評估,並監控和緩解潛在風險。通過在遵循最佳實踐的同時擁抱生成式AI的潛力,您可以將您的組織置於創新前沿,同時保持利益相關者和客戶的信任和信心。
如果您對本文有反饋,請在下方的評論區提交評論。如果您對本文有疑問,請聯繫AWS支持。
新聞來源
本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!