新科技常常讓不在科技行業的人感到害怕和不安。最近的例子是人工智慧 (AI),這個話題在公眾中引起了許多關注和誤解。人們很容易將這些擔憂視為對未知事物的不信任。然而,許多對AI的警告現在是由科技前沿的科學家和研究人員提出的。科技專家和公共政策制定者正在攜手強調AI治理的重要性,這既是一種道德行為準則,也是一個監管框架。
在2023年5月,超過350位人工智慧研究人員、工程師和高管簽署了一封由非營利組織人工智慧安全中心發出的公開信,警告AI可能帶來「滅絕風險」。這個團體聲稱,減輕AI對社會的危害需要成為與疫情和核戰爭同等規模的「全球優先事項」。
AI治理是安全、公平和有效實施這項技術的關鍵。科技公司和公共政策制定者正在努力創建和實施基於AI技術的系統和產品的指導方針和規範。這篇文章將探討目前AI治理的狀況以及未來安全和繁榮使用AI系統的前景。
什麼是AI治理?
AI治理的目標是確保機器學習算法和其他形式的人工智慧的好處能以公平和公正的方式提供給每個人。AI治理旨在促進這項技術的道德應用,確保其使用是透明、安全、私密、負責任且不帶偏見的。為了有效,AI治理必須將政府機構、研究人員、系統設計師、行業組織和公共利益團體聚集在一起。它將:
- 確保AI供應商能在最大化利潤的同時,實現技術的多種好處,並最小化對社會的危害、不公正和非法行為。
- 為開發者提供實用的行為準則和道德指導。
- 創建和部署衡量AI社會和經濟影響的機制。
- 建立監管框架,以強制執行AI的安全和可靠應用。
人工智慧的道德使用依賴於六個核心原則:
- 同理心:AI系統必須理解其對人類反應的社會影響,並尊重人類的情感和感受。
- 透明性:AI算法中的決策機制必須清晰,以促進責任和檢查。
- 公平性:系統必須防止故意或無意中延續社會中現有的偏見,以確保不侵犯性別、種族、宗教、性別和殘疾等人權。
- 無偏見:機器學習系統所訓練的數據必須受到監管和評估,以檢測和消除數據可能延續的偏見。
- 問責性:系統的使用者必須能夠確定誰負責保護免受AI使用所產生的任何不良結果。
- 安全性和可靠性:個人和社會必須受到保護,以免受到AI系統可能帶來的風險,無論是由於數據質量、系統架構還是算法中的決策過程。
生成式AI的影響
傳統的AI專注於基於現有數據來源的模式識別和預測。生成式AI更進一步,利用AI算法根據其訓練的數據創建新的圖像、文本、音頻和其他內容,而不僅僅是分析數據以識別模式和做出預測。生成式AI的危險包括可能的工作取代和失業、大量虛假內容的創建,以及AI系統可能變得有知覺並發展出自己的意志。
生成式AI帶來的一個立即、普遍且隱秘的威脅是這項技術能創建旨在影響特定個體信念和行為的內容。
- 針對性的生成式廣告看起來像普通廣告,但根據觀眾的年齡、性別、教育程度、購買歷史和其他人口統計數據(包括政治傾向和個人偏見)即時個性化。
- 針對性的對話影響利用與AI系統(如ChatGPT、Google Bard、Microsoft Bing Chat和Jasper.ai)的互動對話,根據個人的獨特特徵個性化其回應。廣告商可以將其營銷信息嵌入到機器生成的回應中,以回答用戶的問題和陳述。
在這兩種情況下,互動的即時性和個性化使得難以追究系統設計者對任何濫用AI算法的責任。生成式AI核心的大型語言模型 (LLM) 也威脅到公眾在政府官員面前發聲的能力,因為這項技術可以用來用自動生成的內容淹沒政府辦公室,這些內容與人類生成的通信無法區分。
企業實施AI治理的指導方針
AI的長期成功依賴於獲得公眾信任,這與AI系統的技術能力一樣重要。為了應對人工智慧可能帶來的威脅,美國科學技術政策辦公室 (OSTP) 發布了一份《AI權利法案藍圖》,旨在作為「保護所有人」免受技術濫用的社會指導。這份藍圖確定了設計和應用AI系統時需要遵循的五個原則:
- 必須保護公眾免受不安全和無效的AI應用。
- 設計者必須禁止算法歧視,並確保基於AI的系統公平運作。
- 必須在AI設計中內建數據隱私保護,採用預設隱私。
- 公眾必須被告知並清楚了解他們如何受到AI系統的影響。
- 公眾應能選擇退出自動化系統,並在適當時有人工替代方案。
世界經濟論壇的AI治理聯盟將AI行業高管和研究人員、政府官員、學術機構和公共組織聚集在一起,致力於開發可靠、透明和包容的AI系統。該團體已發布負責任生成式AI的建議,作為負責任開發、社會進步和開放創新與合作的指導方針。
歐洲聯盟提議的《人工智慧法案》為AI系統創建了三個風險級別:
- 不可接受的風險是對人類構成威脅的系統,包括對個人或弱勢群體的認知行為操控、根據行為、社會經濟地位或個人特徵對人進行社會評分,以及生物識別系統。所有這些行為都是被禁止的。
- 高風險是影響人類安全或基本權利的系統。例如,在玩具、航空、醫療設備和汽車中使用的AI,以及在教育、就業、執法、移民和法律管理中使用的AI,這一類別還包括生成式AI。所有這些系統在發布前和上市期間都需要評估。
- 有限風險是符合最低透明度要求的系統,允許用戶對其使用做出明智的決策,只要用戶清楚他們正在與AI互動。示例包括深度偽造,例如操縱的圖像和其他內容。
為了保護免受AI風險的影響,公司可以採取四個方面的AI治理策略:
- 審查並記錄組織中所有AI的使用情況,包括對涉及自動決策的算法工具和機器學習程序進行調查,例如自動化的就業篩選。
- 確定公司AI系統的主要內部和外部用戶及利益相關者。潛在的利益相關者包括員工、客戶、求職者、社區成員、政府官員、董事會成員和承包商。
- 對AI流程進行內部審查。審查應檢查AI系統的目標及其基礎原則,並記錄系統的預期用途和結果,包括具體的數據輸入和輸出。
- 創建一個AI監控系統,說明組織的政策和程序。定期審查將確保系統按預期應用,並遵循道德準則,包括對用戶的透明度和識別算法偏見。
AI治理的未來
隨著AI系統變得越來越強大和複雜,企業和監管機構面臨兩個艱巨的挑戰:
- 系統的複雜性需要由技術專家而非政治家、官僚和法官來制定規則。
- AI治理中最棘手的問題涉及基於價值的決策,而不僅僅是技術問題。
已提出一種基於監管市場的方法,試圖彌合缺乏所需技術能力的政府監管者與私營部門技術專家之間的鴻溝。這種技術採用基於結果的監管方法,取代傳統的命令與控制規則。
根據這一模型,AI治理將依賴於獲得許可的私營監管者,負責確保AI系統遵守政府指定的結果,例如防止欺詐交易和阻止非法內容。私營監管者還將負責自主車輛的安全使用、公平招聘實踐的使用,以及識別未遵守基於結果的監管的組織。
為了為AI治理的未來做好準備,企業可以採取六步驟的方法:
- 創建一套AI原則、政策和設計標準,並維護組織中AI能力和使用案例的清單。
- 設計並部署適用於產品開發生命週期所有部分的AI治理模型。
- 識別公司目前AI風險評估計劃中的差距和未來增長的潛在機會。
- 開發一個由指導方針、模板和工具組成的AI系統框架,以加速和增強公司的運營。
- 識別和優先考慮對組織成功最重要的算法,並減輕與安全、公平和韌性相關的風險。
- 實施不影響創新或靈活性的算法控制過程。這可能需要投資於新的治理和風險管理技術。
將治理轉化為商業成功
歷史學家梅爾文·克蘭茲伯格的第一條技術法則指出:「技術既不是好也不是壞;也不是中立的。」無法準確預測新技術的影響。
無論AI是為了公眾的利益還是損害,完全取決於創造、開發、設計、實施和監控這項技術的人。如AI研究員和教育者雅納伊·扎古里所說:「AI的精靈已經從瓶子裡放出來了。」AI治理是以能增強我們的生活、社區和社會的方式應用這項技術的關鍵。
新聞來源
本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!