「首份通用人工智慧行為準則草案」的發布,標誌著歐盟在為通用人工智慧模型創建全面監管指導方面的努力。
這份草案的制定是一個合作的過程,涉及來自行業、學術界和公民社會的多方意見。這項倡議由四個專門工作小組領導,每個小組負責處理人工智慧治理和風險緩解的特定方面:
工作小組1:透明度和版權相關規則
工作小組2:系統性風險的風險識別和評估
工作小組3:系統性風險的技術風險緩解
工作小組4:系統性風險的治理風險緩解
草案與現有法律如《歐盟基本權利憲章》保持一致。它考慮了國際方法,力求與風險成比例,並通過考慮快速的技術變化來確保未來的適用性。
草案中概述的主要目標包括:
為通用人工智慧模型的提供者澄清合規方法
促進人工智慧價值鏈的理解,確保人工智慧模型無縫整合到下游產品中
確保遵守聯盟的版權法,特別是在使用版權材料進行模型訓練方面
持續評估和緩解與人工智慧模型相關的系統性風險
識別和緩解系統性風險
草案的一個核心特徵是其系統性風險的分類法,其中包括這些風險的類型、性質和來源。文件列出了各種威脅,如網絡犯罪、生物風險、對自主人工智慧模型的控制喪失和大規模虛假信息。草案承認人工智慧技術不斷演變的特性,認識到這一分類法需要更新以保持相關性。
隨著具有系統性風險的人工智慧模型變得越來越普遍,草案強調需要強大的安全和安全框架(SSFs)。它提出了一個措施、子措施和關鍵績效指標(KPIs)的層次結構,以確保在模型生命周期中適當的風險識別、分析和緩解。
草案建議提供者建立流程來識別和報告與其人工智慧模型相關的嚴重事件,並在需要時提供詳細的評估和修正。它還鼓勵與獨立專家合作進行風險評估,特別是對於構成重大系統性風險的模型。
採取主動的人工智慧監管指導立場
歐盟人工智慧法案於2024年8月1日生效,要求該準則的最終版本在2025年5月1日前準備就緒。這一倡議強調了歐盟對人工智慧監管的主動立場,強調人工智慧的安全性、透明度和問責性的重要性。
隨著草案的持續發展,工作小組邀請利益相關者積極參與完善文件。他們的合作意見將塑造一個旨在保護創新同時保護社會免受人工智慧技術潛在陷阱的監管框架。
雖然仍處於草案階段,歐盟的通用人工智慧模型行為準則可能為全球負責任的人工智慧開發和部署樹立標杆。通過解決透明度、風險管理和版權合規等關鍵問題,該準則旨在創造一個促進創新、維護基本權利並確保高水平消費者保護的監管環境。
這份草案開放至2024年11月28日接受書面反饋。
另見:Anthropic呼籲人工智慧監管以避免災難
想了解更多來自行業領導者的人工智慧和大數據知識嗎?查看在阿姆斯特丹、加州和倫敦舉行的人工智慧與大數據博覽會。這個綜合性活動與其他領先活動如智能自動化會議、BlockX、數位轉型週和網絡安全與雲博覽會共同舉行。
在這裡探索其他即將到來的企業技術活動和由TechForge主辦的網絡研討會。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!