從娛樂到網上購物再到聊天機器人,人工智慧 (AI) 系統正在影響我們生活的許多方面。這些影響是廣泛的,塑造了我們的信仰體系、投票決策和幸福感。然而,並不是所有的影響都是不道德的,這引出了這個問題……
我們該如何以道德的方式評估 AI 系統對人類的影響呢?
Bezou-Vrakatseli 等人在這篇文章中提供了一些指導,概述了 S.H.A.P.E. 框架。S.H.A.P.E. 代表秘密 (Secrecy)、傷害 (Harm)、代理 (Agency)、隱私 (Privacy) 和外生性 (Exogeneity)。讓我們來逐一了解。
S 代表秘密 (Secrecy)
如果你不知道自己正在受到影響,或者不知道影響的方式,這可能會涉及道德問題。隱藏影響意圖的想法,涉及欺騙或詭計的概念。文章的作者指出,利用「資訊不對稱」是問題的一大部分。深偽技術 (Deepfakes) 是一個明顯的例子,但這也可能不那麼明顯,例如在網上環境中設計一個功能,使得執行 A 行動比執行 B 行動更容易。
即使你知道自己正在受到影響,如果你不理解影響的方式,仍然可能存在道德問題。例如,你可能知道某個社交媒體應用程式希望讓你保持對其內容的興趣,但影響發生的算法手段——所使用的數據、系統的運作方式——可能並不透明。同樣的情況也適用於聊天機器人或生成式 AI 系統。
解決方法:提高透明度、可解釋性和可理解性。減少資訊不對稱。警惕對 AI 系統和代理的對抗性攻擊和操控。
H 代表傷害 (Harm)
這一點可能很明顯,因為以造成傷害的方式影響他人是不道德的。你可能會想,什麼才算是傷害呢?不僅僅是身體上的傷害。可能的傷害範圍包括心理健康和幸福感、心理安全以及代表性傷害。作者指出,什麼是傷害——從道德的角度來看——是有爭議的,缺乏共識使得這個問題難以解決。這在社交媒體平台上的在線言論中尤為明顯——那是自由言論還是仇恨言論?界限在哪裡,誰來決定?是否應該有界限?作者還指出,並非所有的傷害都是不道德的。例如,外科醫生造成身體傷害,但這是為了幫助解決患者的醫療問題,這是在患者的最佳利益下進行的。
意圖在傷害的討論中也很重要——一般來說,如果有意圖造成傷害,那麼這樣的行為道德上更為嚴重。我們可以從評估或許是最大的傷害——殺人——來理解這一點。一級謀殺是預謀和故意的,而過失殺人則涉及疏忽和缺乏意圖(並不是故意的)。相應的懲罰也反映了意圖的問題。在 AI 的背景下,我們可以將意圖理解為系統的設計者或提供系統的人,而不是系統本身。作為一種機器,AI 系統並不具備意圖(在我看來)——雖然這一領域存在激烈的辯論,並與道德代理、知覺和意識等問題相關,這些都超出了本月專欄的範疇。
解決方法:主動尋求減少或最小化傷害。注意獎勵系統的設計或優化的內容。與跨功能領域合作,尋求多樣的意見和觀點。
A 代表代理 (Agency)
如果你的自我決定選擇的能力受到威脅,這可能表明不道德的影響。人類的代理具有「內在的道德價值」——也就是說,我們本身就重視它。因此,任何干擾人類代理的行為通常被視為不道德的。當涉及到某些人無法為自己最佳利益行動時,我們有時會做出例外。例如,患有癡呆症的人可能不再能做出好的選擇,因此照顧者可能有理由介入並減少癡呆患者的代理。然而,通常來說,我們會努力維護代理。作者提供了五個「影響減少代理的意義」的領域:移除選項、施加條件成本或優惠、未經同意的影響、繞過理性或無法抗拒。為了簡潔起見,我不會詳細說明所有這些,但你可以一般地將算法或 AI 手段施加的脅迫或壓力視為例子。倒數計時的「特別優惠」即將過期是一個例子,或在數位環境中縮小選擇以引導你朝特定結果前進的另一個例子。
解決方法:應用技術手段來量化代理的程度。使用 AI 來支持人類代理。
P 代表隱私 (Privacy)
如果侵犯了隱私,影響可能是不道德的。關於隱私為何有價值以及為何侵犯隱私是道德問題的文章有很多。作者引用了以下幾點——限制對公民的監視、限制對某些信息的訪問,以及減少對被視為私密或個人場所的侵入。在 AI 和數據的背景下,我們可以考慮隱私問題,包括訓練/測試數據以及通過使用系統收集的數據,這些數據也可能回到後續版本的訓練數據中。AI 系統會進行推斷——使用各種數據點來做出最佳猜測。這種推斷可能會揭示敏感的私人信息。著名的 Target (塔吉特) 使用數據分析推斷青少年懷孕的故事便是例子。隱私還引入了有關數據的法律義務——這不是本文的核心焦點,但應該注意。
解決方法:根據隱私問題判斷是否值得繼續進行。使用差分隱私和其他技術解決方案。
E 代表外生性 (Exogeneity)
外生性這個詞我們可能不常遇到。在這項工作中,它簡單地意味著有其他利益正在推進,這些利益與被影響者的利益或目標不一致。我們可以將其視為第三方創造的錯誤或虛假信息,意圖通過利用社交媒體來操縱選舉。這也可能僅僅是影響者或活動家的不一致激勵。權力也在這裡發揮作用,當系統提供一種手段讓行為者「引導」結果以獲得自身利益時,從而施加控制。這可能使某些方擁有顯著的權力,即使這種權力並未實際行使,這也是一個道德問題。
解決方法:了解並監控哪些利益正在被服務。尋找公平性問題。開發去中心化權力的機制。
雖然 S.H.A.P.E. 並不聲稱能解決所有與影響相關的道德問題,但它提供了一個方便的機制來思考一些重大且反覆出現的道德問題。正如文章的作者所指出的:「我們預見 S.H.A.P.E. 框架將被影響力 AI 系統的設計者用作考慮其系統道德影響時的思考結構。」設計者和開發者可以使用該框架作為自我評估工具,以查看是否存在 S.H.A.P.E. 的問題,然後努力解決這些問題。用戶也可以通過了解這些問題受益,並可能詢問設計者和開發者是否已經解決了這些問題。
這是一個非常高層次的總結——完整的論文對於任何希望應用此框架的人來說都值得一讀。
資源
Bezou-Vrakatseli, E., Brückner, B., & Thorburn, L. (2023年9月). SHAPE: 評估影響道德性的框架。在《歐洲多代理系統會議》(pp. 167-185)。Cham: Springer Nature Switzerland.
發送你的問題給我!
我很想聽聽你關於數據困境或 AI 道德問題的問題和疑惑。你可以發送郵件到 hello@ethicallyalignedai.com 或在 LinkedIn 上與我聯繫。我會對所有詢問保密,並刪除任何可能敏感的信息——所以請隨意保持高層次和匿名。
這一專欄並不是法律建議。提供的信息僅供教育用途。AI 和數據的監管是一個不斷發展的領域,任何有具體問題的人應尋求法律專業人士的建議。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!