公平與偏見的舊觀念
「我們長期以來對公平和偏見的看法有些過時了,」集體智慧計畫的創辦人兼執行董事Divya Siddarth說,她並未參與新的基準研究。「我們必須意識到差異,即使這可能會讓人感到不舒服。」
研究的進展
王和她的同事們的工作朝著這個方向邁出了一步。「人工智慧(AI)在許多情境中被使用,因此它需要理解社會的真實複雜性,這就是這篇論文所展示的,」民主與科技中心的AI治理實驗室主任Miranda Bogen說,她不是研究團隊的一員。「單靠一把鎚子來解決問題會錯過那些重要的細微差別,並且無法解決人們所擔心的傷害。」
基準的重要性
像斯坦福大學(Stanford)論文中提議的基準可以幫助團隊更好地評估AI模型的公平性,但實際上修正這些模型可能需要其他技術。一種方法是投資於更多樣化的數據集,儘管開發這些數據集可能成本高且耗時。「讓人們貢獻更有趣和多樣化的數據集真的很棒,」Siddarth說。來自人們的反饋,例如「嘿,我覺得這個沒有代表我。這個回應真的很奇怪,」可以用來訓練和改善後續版本的模型。
機械解釋性
另一個令人興奮的研究方向是機械解釋性,或研究AI模型的內部運作。「人們已經開始識別某些負責偏見的神經元,然後將其消除,」Augenstein說。(在這裡,「神經元」是研究人員用來描述AI模型「大腦」小部分的術語。)
人類的角色
然而,另一派計算機科學家認為,沒有人的參與,AI永遠無法真正公平或無偏見。「科技能夠自我公平的想法是一個童話故事。一個算法系統永遠無法,也不應該能夠,在「這是一種可取的歧視嗎?」這樣的問題上做出道德判斷,」牛津大學(University of Oxford)教授Sandra Wachter說,她並未參與研究。「法律是一個活的系統,反映了我們目前認為的倫理,並且應該隨著我們的變化而變化。」
文化差異的挑戰
決定模型何時應該或不應該考慮不同群體之間的差異可能會迅速引發分歧。由於不同文化有不同甚至相互衝突的價值觀,很難確定AI模型應該反映哪些價值觀。一個提議的解決方案是「一種聯邦模型,類似於我們目前對人權所做的,」Siddarth說,也就是說,每個國家或群體都有自己的主權模型。
解決偏見的複雜性
無論人們採取哪種方法,解決AI中的偏見都會很複雜。但給研究人員、倫理學家和開發者一個更好的起點似乎是值得的,尤其是對王和她的同事們來說。「現有的公平基準非常有用,但我們不應該盲目地優化它們,」她說。「最大的收穫是,我們需要超越一刀切的定義,思考如何讓這些模型更好地融入上下文。」
更正
這篇文章的早期版本錯誤地描述了論文中提到的基準數量。研究人員建議的不是兩個基準,而是八個基準,分為兩個類別:描述性和規範性。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!