星期一, 2 6 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 道德與法規

安索普呼籲對人工智慧進行監管以避免災難

2024-11-02
in 道德與法規
0 0
0
安索普呼籲對人工智慧進行監管以避免災難
Share on FacebookShare on Twitter
Your Ad


Anthropic 提出 AI 系統的潛在風險與規範建議

Anthropic 提醒大家,AI 系統可能帶來的風險非常重要,因此需要有良好的規範來避免潛在的災難。這個組織認為,針對性的規範是必要的,這樣才能在享受 AI 帶來的好處的同時,減少它的危險。

隨著 AI 系統在數學、推理和編碼等能力上不斷進步,它們在網路安全或生物、化學等領域的濫用潛力也大幅增加。

Anthropic 警告說,未來 18 個月對於政策制定者來說是關鍵時期,因為主動預防的機會正在減少。特別是,Anthropic 的 Frontier Red Team 強調,目前的模型已經能夠參與各種網路攻擊相關的任務,未來的模型預計會更有效。

特別令人擔憂的是,AI 系統可能會加劇化學、生物、放射性和核(CBRN)濫用的風險。英國 AI 安全研究所發現,幾個 AI 模型現在能夠達到博士級人類專家的水平,能夠回答科學相關的問題。

為了應對這些風險,Anthropic 在 2023 年 9 月發布了負責任擴展政策(Responsible Scaling Policy, RSP),作為強有力的對策。RSP 要求根據 AI 能力的複雜性增加安全和保護措施。

RSP 框架設計為可調整和循環的,定期評估 AI 模型,以便及時改進安全協議。Anthropic 表示,該公司致力於在各種團隊擴展中維持和提升安全性,特別是在安全性、可解釋性和信任等領域,確保符合 RSP 設定的嚴格安全標準。

Anthropic 認為,AI 行業廣泛採用 RSP 雖然主要是自願的,但對於應對 AI 風險至關重要。

透明且有效的規範對於讓社會相信 AI 公司遵守安全承諾非常重要。然而,規範框架必須具戰略性,激勵良好的安全實踐,而不會施加不必要的負擔。

Anthropic 設想的規範應該是清晰、專注且能隨著技術變化而調整,認為這對於在減少風險和促進創新之間取得平衡至關重要。

在美國,Anthropic 建議聯邦立法可能是應對 AI 風險規範的最佳解決方案,儘管如果聯邦行動緩慢,州政府的倡議可能需要介入。各國制定的立法框架應該允許標準化和相互認可,以支持全球 AI 安全議程,減少不同地區合規的成本。

此外,Anthropic 也針對對於規範的懷疑進行回應,強調過於廣泛的用例導向規範對於一般 AI 系統來說效率不高,因為這些系統有著多樣的應用。相反,規範應該針對 AI 模型的基本特性和安全措施。

雖然涵蓋了廣泛的風險,Anthropic 承認一些即時威脅,例如深度偽造(deepfakes),並不是他們目前提案的重點,因為其他倡議正在處理這些較短期的問題。

最終,Anthropic 強調制定促進創新的規範比抑制創新更為重要。雖然初期的合規負擔是不可避免的,但可以通過靈活且精心設計的安全測試來最小化。適當的規範甚至可以幫助保護國家利益和私營部門的創新,確保知識產權不受內外威脅。

通過專注於經驗測量的風險,Anthropic 計劃建立一個不偏向開源或閉源模型的規範環境。目標依然明確:以嚴謹但可調整的規範來管理前沿 AI 模型的重大風險。

(圖片來源:Anthropic)

參考:拜登總統發布首份有關 AI 的國家安全備忘錄

想了解更多來自行業領袖的 AI 和大數據知識嗎?請查看在阿姆斯特丹、加州和倫敦舉行的 AI & 大數據博覽會。這個綜合性活動與其他領先活動同時舉行,包括智能自動化會議、BlockX、數位轉型周和網路安全與雲端博覽會。

探索 TechForge 提供的其他即將舉行的企業科技活動和網路研討會。



新聞來源

本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!

Tags: aianthropicartificial intelligencegovernmentlawlegalLegislationpolicyPoliticsregulationrisksrspsafetySociety安索普呼籲對人工智慧進行監管以避免災難
Previous Post

機器人對話 第96集 – 醫療與健康中的柔性機器人,與瑪麗亞·埃琳娜·吉安納奇尼

Next Post

理解他們在擴展您的組織中的角色

Related Posts

OpenAI 和 Google 呼籲美國政府採取行動以確保人工智慧領先地位
道德與法規

OpenAI 和 Google 呼籲美國政府採取行動以確保人工智慧領先地位

2025-03-15
數據啜飲:與馬爾科姆·霍克的訪談
道德與法規

數據啜飲:與馬爾科姆·霍克的訪談

2025-03-14
數據教育網路研討會:數據管理者的角色
道德與法規

數據教育網路研討會:數據管理者的角色

2025-03-14
這是必要的 – 驗證數據轉換的結果 (第 3 部分)
道德與法規

這是必要的 – 驗證數據轉換的結果 (第 3 部分)

2025-03-13
AI數據保留造成環境障礙
道德與法規

AI數據保留造成環境障礙

2025-03-11
請教數據倫理學家:我們如何能夠倫理地評估人工智慧系統對人類的影響?
道德與法規

請教數據倫理學家:我們如何能夠倫理地評估人工智慧系統對人類的影響?

2025-03-10
Next Post
理解他們在擴展您的組織中的角色

理解他們在擴展您的組織中的角色

代理性人工智慧:大型語言模型如何塑造自主代理的未來

代理性人工智慧:大型語言模型如何塑造自主代理的未來

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。