歐洲委員會最近推出了一套 行為準則,可能會改變人工智慧公司的運作方式。這不僅僅是另一套指導方針,而是對人工智慧監管的全面改革,即使是最大的參與者也無法忽視。
這有何不同之處?這是首次我們看到具體的規則,可能迫使像 OpenAI 和谷歌這樣的公司對外開放其模型進行測試,這是人工智慧系統在歐洲開發和部署方式的根本轉變。
人工智慧監管的新權力玩家
歐洲委員會創建了一個特別針對所謂“系統性風險”的人工智慧系統的框架。我們談論的是訓練超過 10^25 FLOPs 計算能力的模型——這個門檻已經被 GPT-4 超越。
公司需要在開始之前的兩周內報告其人工智慧訓練計劃。
這個新系統的核心是兩份關鍵文件:安全與保安框架 (SSF) 和安全與保安報告 (SSR)。SSF 是一個全面的人工智慧風險管理路線圖,涵蓋從初步風險識別到持續安全措施的所有內容。與此同時,SSR 作為每個模型的詳細文檔工具。
高風險人工智慧模型的外部測試
委員會要求對高風險人工智慧模型進行外部測試。這不是標準的內部質量檢查——獨立專家和歐盟的人工智慧辦公室將深入這些系統的內部。
這意味著巨大的影響。如果你是 OpenAI 或谷歌,你突然需要讓外部專家檢查你的系統。草案明確指出,公司必須“確保在部署前進行足夠的獨立專家測試”。這是對當前自我監管方式的巨大轉變。
問題來了:誰有資格測試這些極其複雜的系統?歐盟的人工智慧辦公室正進入一個前所未有的領域。他們需要能夠理解和評估新人工智慧技術的專家,同時對他們所發現的內容保持嚴格的保密性。
這一外部測試要求可能會通過委員會的實施法案在整個歐盟變得強制性。公司可以嘗試通過“適當的替代手段”來證明合規,但沒有人確定這在實踐中意味著什麼。
版權保護變得嚴肅
歐盟也正在嚴肅對待版權。他們迫使人工智慧提供商制定明確的政策,說明他們如何處理知識產權。
委員會支持 robots.txt 標準——一個簡單的文件,告訴網絡爬蟲可以和不可以去的地方。如果網站通過 robots.txt 說“不”,人工智慧公司不能忽視這一點並繼續訓練該內容。搜索引擎不能因為使用這些排除項而懲罰網站。這是一個將內容創作者重新置於駕駛座的強權行動。
人工智慧公司在收集訓練數據時也必須積極避免盜版網站。歐盟甚至將其指向“假冒和盜版監控名單”作為起點。
這對未來的意義
歐盟正在為人工智慧開發創造一個全新的競爭環境。這些要求將影響公司如何規劃其人工智慧項目以及如何收集訓練數據。
每一家主要的人工智慧公司現在都面臨著選擇。他們需要:
開放他們的模型以進行外部測試弄清楚那些神秘的“替代手段”合規的樣子或者可能限制他們在歐盟市場的運作
這裡的時間表也很重要。這不是某個遙遠的未來法規——委員會正在快速推進。他們成功地將大約 1,000 名利益相關者分成四個工作組,所有人都在敲定這將如何運作的細節。
對於構建人工智慧系統的公司來說,“快速行動,然後再搞清楚規則”的日子可能即將結束。他們需要現在就開始考慮這些要求,而不是等到它們成為強制性時。這意味著:
在其開發時間表中規劃外部審計建立健全的版權合規系統建立符合歐盟要求的文檔框架
這些規範的實際影響將在未來幾個月內顯現。雖然一些公司可能會尋求變通辦法,但其他公司將把這些要求整合到其開發過程中。歐盟的框架可能會影響全球的人工智慧開發,尤其是如果其他地區跟隨類似的監管措施。隨著這些規則從草案轉向實施,人工智慧行業面臨著其最大的監管轉變。