星期六, 14 6 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 機器學習與應用

提升人工智慧信任度的新負責任AI工具、能力和資源

2024-12-06
in 機器學習與應用
0 0
0
提升人工智慧信任度的新負責任AI工具、能力和資源
Share on FacebookShare on Twitter
Your Ad


隨著生成式人工智慧在各行各業和我們日常生活中持續推動創新,負責任的人工智慧需求變得越來越重要。在 AWS,我們相信人工智慧的長期成功取決於能否在用戶、客戶和社會之間建立信任。這種信念是我們長期致力於負責任地建設和使用人工智慧的核心。負責任的人工智慧不僅僅是減少風險和遵循相關標準與法規,而是主動建立信任,釋放人工智慧推動商業價值的潛力。全面的負責任人工智慧方法使組織能夠大膽創新,實現變革性的商業成果。由埃森哲 (Accenture) 和 AWS 共同進行的新研究強調了負責任的人工智慧作為商業價值的關鍵驅動力——提升產品質量、運營效率、客戶忠誠度、品牌形象等。近一半的受訪公司承認負責任的人工智慧對於推動與人工智慧相關的收入增長至關重要。為什麼?因為負責任的人工智慧建立了信任,而信任加速了採用和創新。

基於信任作為人工智慧採用的基石,我們在 AWS re:Invent 2024 上興奮地宣布了新的負責任人工智慧工具、能力和資源,這些工具增強了我們的人工智慧服務和模型的安全性、保安性和透明度,並幫助支持客戶自己的負責任人工智慧之旅。

主動管理人工智慧風險,促進信任和互操作性

AWS 是第一家宣布獲得 ISO/IEC 42001 認證的主要雲服務提供商,該認證涵蓋了 Amazon Bedrock、Amazon Q Business、Amazon Textract 和 Amazon Transcribe。ISO/IEC 42001 是一項國際管理系統標準,概述了組織在整個生命週期中負責任地管理人工智慧系統的要求。技術標準,如 ISO/IEC 42001,具有重要意義,因為它們提供了一個負責任的人工智慧開發和部署的共同框架,促進了在日益全球化和人工智慧驅動的技術環境中的信任和互操作性。獲得 ISO/IEC 42001 認證意味著獨立的第三方已驗證 AWS 正在主動管理與人工智慧開發、部署和運營相關的風險和機會。通過這項認證,我們加強了對提供幫助您負責任地創新人工智慧服務的承諾。

擴大 Amazon Bedrock Guardrails 的保障措施以改善透明度和安全性

在 2024 年 4 月,我們宣布 Amazon Bedrock Guardrails 的正式推出,這使得對您的生成式人工智慧應用進行安全和負責任的人工智慧檢查變得更加容易。Amazon Bedrock Guardrails 通過阻擋高達 85% 的有害內容,提供行業領先的安全保護,這是在基礎模型 (FMs) 提供的原生保護之上,並過濾超過 75% 的模型產生的幻覺響應,使用上下文基礎檢查進行檢索增強生成 (RAG) 和總結用例。實施這些保障措施的能力是建立對人工智慧系統信任的一大進步。儘管基礎模型已經取得了進展,但模型仍然可能產生幻覺——這是我們許多客戶面臨的挑戰。對於準確性至關重要的用例,客戶需要使用數學上合理的技術和可解釋的推理來幫助生成準確的基礎模型響應。

為了解決這一需求,我們正在向 Amazon Bedrock Guardrails 添加新的保障措施,以幫助防止由於基礎模型幻覺而導致的事實錯誤並提供可驗證的證據。隨著 Amazon Bedrock Guardrails 中自動推理檢查的推出 (預覽),AWS 成為第一家也是唯一一家將自動推理整合到我們的生成式人工智慧產品中的主要雲提供商。自動推理檢查通過使用合理的數學、基於邏輯的算法驗證和推理過程來防止幻覺產生的事實錯誤,從而驗證模型生成的信息,確保輸出與提供的事實一致,而不是基於幻覺或不一致的數據。與其他技術(如提示工程、RAG 和上下文基礎檢查)一起使用,自動推理檢查為提高大型語言模型生成的輸出準確性提供了一種更嚴謹和可驗證的方法。將您的領域知識編碼到結構化政策中,幫助您的對話式人工智慧應用為用戶提供可靠和可信的信息。

點擊下方圖片查看 Amazon Bedrock Guardrails 中自動推理檢查的演示。

隨著組織越來越多地使用多模態數據的應用程序來推動商業價值、改善決策和增強客戶體驗,內容過濾器的需求超出了文本範疇。Amazon Bedrock Guardrails 現在支持多模態毒性檢測(預覽),支持圖像內容,幫助組織檢測和過濾不良和潛在有害的圖像內容,同時保留安全和相關的視覺效果。多模態毒性檢測幫助減少建立自己的圖像數據保障措施所需的繁重工作,或投入時間進行可能容易出錯和繁瑣的手動評估。Amazon Bedrock Guardrails 幫助您負責任地創建人工智慧應用,幫助與用戶建立信任。

通過新的 Amazon Bedrock 評估能力改善生成式人工智慧應用的響應和質量

隨著可選擇的通用基礎模型越來越多,組織現在擁有廣泛的選擇來驅動其生成式人工智慧應用。然而,為特定用例選擇最佳模型需要根據組織的質量和負責任的人工智慧指標有效比較模型。雖然評估是建立信任和透明度的重要部分,但對於每個新用例來說,這需要大量的時間、專業知識和資源,這使得選擇能夠提供最準確和安全的客戶體驗的模型變得具有挑戰性。Amazon Bedrock 評估通過幫助您評估、比較和選擇最適合您用例的基礎模型來解決這一問題。您現在可以使用 LLM 作為評審(預覽)進行模型評估,對您的數據集進行測試並評估其他模型,並選擇在 Amazon Bedrock 上托管的 LLM 作為評審,使用各種質量和負責任的人工智慧指標,如正確性、完整性和有害性。您還可以帶上自己的提示數據集,使用您的數據自定義評估,並比較評估工作的結果,以便更快做出決策。之前,您只能在基於人類的模型評估和自動評估(使用精確字符串匹配和其他傳統自然語言處理 (NLP) 指標)之間進行選擇。這些方法雖然快速,但與人類評估者的相關性不強。現在,通過 LLM 作為評審,您可以以比全面人類評估更低的成本獲得人類般的評估質量,同時節省數週的時間。許多組織仍然希望最終評估來自專家人類標註者。為此,Amazon Bedrock 仍然提供全面的人類評估,並可以選擇帶上自己的工作隊伍或讓 AWS 管理您的自定義評估。

為了使基礎模型具備最新和專有的信息,組織使用 RAG,這是一種從公司數據源中提取數據並豐富提示以提供更相關和準確響應的技術。然而,由於優化檢索和生成組件的複雜性,評估和優化 RAG 應用可能具有挑戰性。為了解決這一問題,我們在 Amazon Bedrock 知識庫中引入了 RAG 評估支持(預覽)。這項新的評估能力現在允許您方便快捷地評估和優化 RAG 應用,正好在您的數據和大型語言模型所在的位置。由 LLM 作為評審技術驅動的 RAG 評估提供多種評審模型和指標的選擇,如上下文相關性、上下文覆蓋率、正確性和可信度(幻覺檢測)。這種無縫集成促進了定期評估,培養了在人工智慧應用開發中持續改進和透明度的文化。通過與基於人類的評估相比節省成本和時間,這些工具使組織能夠增強其人工智慧應用,通過持續改進建立信任。

模型和 RAG 評估能力都為輸出文件和 AWS 管理控制台中的每個分數提供自然語言解釋。分數從 0 到 1 進行標準化,以便於解釋。評分標準在文檔中完整發布,並附有評審提示,以便非科學家能夠理解分數的來源。要了解有關模型和 RAG 評估能力的更多信息,請參見新聞博客。

介紹 Amazon Nova,核心是負責任的人工智慧

Amazon Nova 是一種新一代的尖端基礎模型,提供前沿智能和行業領先的性價比。Amazon Nova 基礎模型內置保障措施,以檢測和移除數據中的有害內容,拒絕不當的用戶輸入,並過濾模型輸出。我們將負責任的人工智慧維度運作化為一系列設計目標,指導我們在模型開發生命週期中的決策——從最初的數據收集和預訓練到模型對齊,再到部署後運行時的減輕措施。Amazon Nova Canvas 和 Amazon Nova Reel 提供支持安全性、保安性和知識產權需求的控制,並包含水印、內容審核和 C2PA 支持(在 Amazon Nova Canvas 中可用),以便自動將元數據添加到生成的圖像中。亞馬遜的安全措施也延伸到 Amazon Nova 模型,以打擊虛假信息、兒童性虐待材料 (CSAM) 和化學、生物、放射或核 (CBRN) 風險。要了解有關 Amazon Nova 如何負責任地構建的更多信息,請閱讀 Amazon 科學博客。

通過新資源增強透明度以推進負責任的生成式人工智慧

在 re:Invent 2024 上,我們宣布了新的 AWS 人工智慧服務卡的可用性,這些服務卡適用於 Amazon Nova Reel、Amazon Canvas、Amazon Nova Micro、Lite 和 Pro、Amazon Titan 圖像生成器以及 Amazon Titan 文本嵌入,以提高 Amazon 基礎模型的透明度。這些卡片提供了有關預期用例、限制、負責任的人工智慧設計選擇和部署及性能優化最佳實踐的綜合信息。作為亞馬遜負責任的人工智慧文檔的一個關鍵組成部分,人工智慧服務卡為客戶和更廣泛的人工智慧社區提供了一個集中資源,以了解我們在負責任地構建服務過程中所採取的開發過程,這些過程涉及公平性、可解釋性、隱私和安全性、安全性、可控性、真實性和穩健性、治理和透明度。隨著生成式人工智慧的持續增長和演變,透明度對於如何開發、測試和使用技術將成為贏得組織及其客戶信任的重要組成部分。您可以在負責任的人工智慧工具和資源中探索所有 16 張人工智慧服務卡。

我們還更新了 AWS 負責任使用人工智慧指南。這份文件提供了設計、開發、部署和運營人工智慧系統時負責任地考慮的事項,基於我們在人工智慧領域的廣泛學習和經驗。它是以一組多樣的人工智慧利益相關者和觀點為基礎撰寫的——包括但不限於建設者、決策者和最終用戶。在 AWS,我們致力於繼續為更廣泛的社區提供這些透明度資源,並不斷迭代和收集反饋,以找出最佳的前進方式。

以信任為前提推動突破性創新

在 AWS,我們致力於在人工智慧中培養信任,使各種規模的組織能夠有效且負責任地構建和使用人工智慧。我們對本週在 re:Invent 上宣布的負責任人工智慧創新感到興奮。從 Amazon Bedrock 中的新保障措施和評估技術到尖端的 Amazon Nova 基礎模型,再到通過 ISO/IEC 42001 認證和新的 AWS 人工智慧服務卡促進信任和透明度,您擁有更多工具、資源和內置保護,幫助您負責任地創新並釋放生成式人工智慧的價值。

我們鼓勵您探索這些新工具和資源:

關於作者

Dr. Baskar Sridharan 是人工智慧/機器學習和數據服務及基礎設施的副總裁,負責監督關鍵服務的戰略方向和開發,包括 Bedrock、SageMaker 和重要的數據平台,如 EMR、Athena 和 Glue。



新聞來源

本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!

Tags: 提升人工智慧信任度的新負責任AI工具能力和資源
Previous Post

研究:在線瀏覽負面內容會加劇心理健康問題 | 麻省理工學院新聞

Next Post

神經資訊處理系統 (NeurIPS) 2024

Related Posts

劍橋大學和莫納什大學的研究人員推出 ReasonGraph:一個可視化和分析大型語言模型推理過程的網絡平台
機器學習與應用

劍橋大學和莫納什大學的研究人員推出 ReasonGraph:一個可視化和分析大型語言模型推理過程的網絡平台

2025-03-16
生成式人工智慧的影響及其對數據科學家的啟示
機器學習與應用

生成式人工智慧的影響及其對數據科學家的啟示

2025-03-15
這篇AI論文介紹了BD3-LMs:一種結合自回歸模型和擴散模型的混合方法,用於可擴展和高效的文本生成
機器學習與應用

這篇AI論文介紹了BD3-LMs:一種結合自回歸模型和擴散模型的混合方法,用於可擴展和高效的文本生成

2025-03-15
九個生鏽的Pico PIO瓦特(第二部分)
機器學習與應用

九個生鏽的Pico PIO瓦特(第二部分)

2025-03-15
開始使用 Amazon Bedrock Agents 的電腦操作
機器學習與應用

開始使用 Amazon Bedrock Agents 的電腦操作

2025-03-15
評估使用 Amazon Bedrock 知識庫的 RAG 應用程式
機器學習與應用

評估使用 Amazon Bedrock 知識庫的 RAG 應用程式

2025-03-14
Next Post
神經資訊處理系統 (NeurIPS) 2024

神經資訊處理系統 (NeurIPS) 2024

蘋果機器學習研究於 NeurIPS 2024

蘋果機器學習研究於 NeurIPS 2024

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 6 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。