科技的進步總是比我們用來保護自己不受科技濫用的法律來得快。對於超智能人工智慧(AI)出現並操控機器和人類的恐懼聽起來像科幻小說,但AI的驚人進步速度讓這些擔憂變得非常真實。
AI對個人和企業的威脅其實更接地氣,並且遠沒有那麼可怕。最近,世界經濟論壇對首席風險官(CRO)進行的調查顯示,AI的惡意使用被認為是這項技術帶來的最大風險。CRO們指出,現在人們很容易利用AI來散播錯誤資訊、進行網路攻擊,或是獲取敏感的個人資料。
歐洲聯盟(EU)對AI的危險做出了回應,通過了法律,要求AI開發者和使用者實施保護措施,以防止技術的濫用。歐盟的AI法案對全球各國的個人和企業都很重要,因為這是為個人和企業創建全面保護措施的第一步,以防止因AI而失去權利和資產。
歐盟AI法案的目的為何?
AI法案的目的是建立居民對AI的信任。AI系統缺乏透明度,使得確認它們不會對任何人不公平或造成不公平的劣勢變得困難。舉例來說,AI在招聘決策和公共福利資格審查中的使用就是兩個例子。
AI法案中的規定加強了現有的保護措施,並引入了專門針對人工智慧的規則:
- 該法案禁止那些帶來不可接受風險的AI行為,這些風險位於四級監管框架的最上層。其他三個風險級別分別為最小風險、有限風險和高風險。
- 它識別出高風險的應用及其安全使用的要求,包括使用AI應用的各方的具體義務。
- 它要求在AI系統向公眾發布之前進行合規性評估,並規定在發布後測試AI產品是否符合法律的執行機制。
歐盟的監管框架旨在幫助消費者和企業了解AI技術所帶來的不同風險的性質,並建立對於被認定為不可接受或高風險的AI應用的要求。
不可接受的風險被定義為“對人們的安全、生計和權利構成明確威脅”的風險。這些系統在歐盟內被禁止使用。
高風險的AI應用包括用於關鍵基礎設施和可能危害公民健康與安全的系統,以及用於教育和職業培訓、員工管理和提供基本公共服務(如信用評分以獲得貸款)的系統。其他高風險領域還包括與基本權利相關的執法、移民和邊境控制,以及司法和政治過程的管理。
有限風險則與AI應用的透明度有關。它要求人們在與AI系統(如聊天機器人)互動時被告知,並且有機會選擇不使用這些系統。提供者有責任使其使用AI的方式易於識別,包括用於告知或影響公共利益事務的AI生成材料,例如深度偽造。
最小或無風險則適用於在視頻遊戲、垃圾郵件過濾器和其他不對公眾構成內在威脅的情況下使用AI。
根據歐盟AI法案,高風險的AI應用必須在進入歐盟國家之前滿足特定標準。除了具備足夠的風險評估和緩解特徵外,提供者和使用者還必須確認系統基於高質量的數據集,並盡可能避免偏見。活動必須被記錄和可追溯,系統文檔必須足夠詳細,以確認符合規定。
其他要求包括使用者從提供者那裡獲得清晰和充分的產品信息,AI系統獲得適當的人類監督,並且必須堅固、安全和準確。
誰會受到歐盟AI法案的影響?
歐盟AI法案適用於提供者、使用者、進口商、分銷商以及其他參與AI產品生產和傳播的人。受法律影響最大的三個群體是提供者、使用者和進口商:
- 提供者是開發AI系統和通用人工智慧(GPAI)模型的實體,或雇用他人為他們開發系統。這些產品以提供者的名稱或商標為特徵,並直接進入市場或作為服務的組件提供使用。提供者可以位於歐盟內部或外部:位於歐盟外的提供者必須在歐盟內指定授權代表以確認其合規性。
- 使用者是指在歐盟市場內或外部使AI系統可用的任何人和組織。例如,回應客戶支持請求的聊天機器人。
- 進口商是位於歐盟的方,將源自歐盟外的AI系統引入市場。
AI法案廣泛定義AI系統為能夠以某種程度的自主性處理輸入並生成預測、建議、決策或內容的系統,這些輸出可能影響實體或虛擬環境。GPAI包括應用於多種主題並能執行多種任務的任何AI模型。GPAI模型旨在與其他AI應用無縫整合。
法案何時會產生影響?
儘管歐盟AI法案於2024年8月1日生效,但許多針對高風險系統的要求和其他部分將在兩年的過渡期結束後適用,雖然某些規則會在六個月後生效,其他則在一年後生效。此外,嵌入受監管產品中的AI系統的規則在三年內不適用。
為了幫助組織準備實施AI法案的規定,歐盟創建了AI協定,以促進自願遵守的承諾。合規框架的第一個支柱旨在作為組織交流信息和最佳實踐的論壇。第二個支柱則旨在幫助提供者和使用者為其合規努力奠定基礎。
歐盟AI法案將如何惠及消費者和企業?
歐盟AI法案可以被視為一項針對技術提供者的產品安全法。然而,該法案的保護範圍超越了傳統的產品健康和安全,涵蓋了對公民基本權利的風險,包括公平選舉和政府及商業透明度。例如,AI法案要求人們獲得AI系統在做出決策時所應用的推理的有意義解釋。
實現該法案所承諾的保護的關鍵在於其執行條款,這些條款將由國家市場監管官員根據歐盟法規2019-1020的權限執行。市場監管機構有權在合規違規現場進行干預。這與歐盟一般數據隱私法規(GDPR)的執行條款不同,後者在提供者所在地執行。這一變化減少了某一歐盟管轄區因侵權案件而不堪重負的可能性。
不過,基於產品安全法的AI保護措施在監管結構中引入了一些固有缺陷。例如,與大多數產品不同,AI系統是動態的,設計上會隨著時間改變。此外,它們的價值和目的並不總是能準確預測或衡量,AI系統的使用情境的不可預測性使得識別和量化所有潛在風險變得幾乎不可能。一些分析師指出,可能更有效的做法是監管參與AI生產的私營和公共實體的內部流程,而不是在產品準備發布後測試其結果。
美國目前有哪些AI法規?
在2023年10月,白宮發布了一項行政命令,要求政府機構制定AI安全和安全標準。該命令要求大型AI系統的開發者與聯邦機構分享安全和測試結果,並建立司法部與聯邦民權辦公室之間的合作,以識別和起訴與AI相關的違規行為。2024年5月,白宮隨後發布了新的指導方針,專注於保護工人免受雇主使用AI所帶來的風險。
加利福尼亞州是幾個提出與AI安全相關法律的州之一。參議院法案1047要求AI開發者評估其產品造成傷害的可能性,並允許加州檢察長對不遵守該法案安全措施的開發者尋求法院禁令。
美國立法者面臨的挑戰是,在不扼殺技術發展的情況下,保護免受AI濫用。最近在美國參議院提出的三項法案顯示了尋找適當平衡的掙扎。
AI監管的動態性在美國政府對市場競爭者使用AI來操縱價格的回應中得到了體現。當美國司法部指控RealPage使用算法定價軟件來減少房東之間的競爭時,適用了聯邦反壟斷法。然而,反壟斷法中的潛在漏洞使得美國參議員艾米·克洛布查(Amy Klobuchar)提出了禁止使用算法操縱價格的立法。
《防止算法共謀法》旨在阻止直接競爭者共享“競爭敏感信息”,這些信息通過定價算法來確定消費者願意支付的最高價格。根據該法案的發起人,這種價格操縱可能會通過現行消費者法律的漏洞而逃避制裁。
AI在提升全球人民生活和生計方面展現了巨大的潛力,但只有在技術能夠安全和公平使用的情況下才能實現。消費者和企業都希望避免出現一系列不一致的AI法規,讓執法變成打地鼠的過程。歐盟AI法案是朝著建立一套適用廣泛的綜合保護措施邁出的一步,促進而非阻礙技術的可能性。
新聞來源
本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!