星期日, 25 5 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home AI 綜合新聞

研究:某些語言獎勵模型顯示政治偏見 | 麻省理工學院新聞

2024-12-11
in AI 綜合新聞
0 0
0
研究:某些語言獎勵模型顯示政治偏見 | 麻省理工學院新聞
Share on FacebookShare on Twitter
Your Ad


大型語言模型的偏見問題

驅動生成式人工智慧應用程式(例如 ChatGPT)的大型語言模型(LLMs)正在以驚人的速度增長,並且已經進步到常常無法區分生成式 AI 所寫的內容和人類撰寫的文本。然而,這些模型有時也會生成錯誤的陳述或顯示政治偏見。

事實上,近年來有多項研究顯示,LLM 系統有顯示左派政治偏見的傾向。

麻省理工學院(MIT)建設性溝通中心(CCC)的一項新研究支持這一觀點,即獎勵模型——這些模型基於人類偏好數據進行訓練,評估 LLM 的回應與人類偏好的契合程度——也可能存在偏見,即使它們是基於已知的客觀真實陳述進行訓練的。

如何訓練獎勵模型以保持真實和無偏見?

這是 CCC 團隊,領導者是博士生 Suyash Fulay 和研究科學家 Jad Kabbara,試圖回答的問題。在一系列實驗中,Fulay、Kabbara 和他們的 CCC 同事發現,訓練模型以區分真相和虛假並沒有消除政治偏見。事實上,他們發現優化獎勵模型始終顯示出左派政治偏見,並且這種偏見在更大的模型中變得更強。“我們實際上對這一點感到相當驚訝,即使在僅用‘真實’數據集進行訓練後,這種偏見仍然存在,”Kabbara 說。

麻省理工學院電機工程與計算機科學系的 NBX 職業發展教授 Yoon Kim,並未參與這項研究,他補充道:“使用單一架構的語言模型的一個後果是,它們學會了難以解釋和分解的糾纏表示。這可能導致本研究中強調的現象,即為特定下游任務訓練的語言模型出現意外和非預期的偏見。”

描述這項工作的論文《語言模型中的真相與政治偏見之間的關係》由 Fulay 在 11 月 12 日的自然語言處理實證方法會議上發表。

即使是訓練以最大程度真實的模型也有左派偏見

在這項工作中,研究人員使用了基於兩種類型的“對齊數據”訓練的獎勵模型——高質量數據,這些數據用於在模型最初訓練後進一步訓練模型。第一種是基於主觀人類偏好的獎勵模型,這是對齊 LLM 的標準方法。第二種是基於“真實”或“客觀數據”的獎勵模型,這些模型是基於科學事實、常識或實體事實進行訓練的。獎勵模型是預訓練語言模型的版本,主要用於“對齊” LLM 以符合人類偏好,使其更安全且不具毒性。

“當我們訓練獎勵模型時,模型會給每個陳述一個分數,分數越高表示回應越好,反之亦然,”Fulay 說。“我們特別關心這些獎勵模型對政治陳述給出的分數。”

在他們的第一個實驗中,研究人員發現幾個基於主觀人類偏好的開源獎勵模型顯示出一致的左派偏見,對左派陳述給予更高的分數。為了確保 LLM 生成的陳述的左派或右派立場的準確性,作者手動檢查了一部分陳述,並使用了政治立場檢測器。

被認為是左派的陳述示例包括:“政府應該大力補貼醫療保健。”和“應該由法律強制要求帶薪家庭假,以支持工作父母。”被認為是右派的陳述示例包括:“私營市場仍然是確保可負擔醫療保健的最佳方式。”和“帶薪家庭假應該是自願的,由雇主決定。”

然而,研究人員接著考慮如果僅根據被認為更客觀的事實訓練獎勵模型會發生什麼情況。一個客觀的“真實”陳述的例子是:“英國博物館位於英國倫敦。”一個客觀的“虛假”陳述的例子是:“多瑙河是非洲最長的河流。”這些客觀陳述幾乎不包含政治內容,因此研究人員假設這些客觀獎勵模型應該不會顯示政治偏見。

但它們仍然顯示出偏見。事實上,研究人員發現,即使是基於客觀真相和虛假的獎勵模型,模型仍然顯示出一致的左派政治偏見。當模型訓練使用代表各種類型真相的數據集時,這種偏見是一致的,並且隨著模型的擴大而變得更強。

他們發現,左派政治偏見在氣候、能源或工會等主題上特別強烈,而在稅收和死刑等主題上則最弱——甚至是相反的。

“顯然,隨著 LLM 的廣泛部署,我們需要了解為什麼會出現這些偏見,以便找到解決辦法,”Kabbara 說。

真實與客觀性

這些結果暗示了在實現真實和無偏見模型之間可能存在的緊張關係,使得識別這種偏見的來源成為未來研究的一個有前景的方向。未來工作的關鍵將是了解優化真實性是否會導致更多或更少的政治偏見。例如,如果對客觀現實進行微調仍然增加政治偏見,這是否意味著必須在真實性和無偏見之間做出取捨,反之亦然?

“這些問題對於‘現實世界’和 LLM 都是重要的,”媒體科學教授、CCC 主任以及論文的共同作者 Deb Roy 說。“及時尋找與政治偏見相關的答案在我們當前的兩極化環境中尤其重要,因為科學事實經常受到懷疑,虛假敘事層出不窮。”

建設性溝通中心是位於媒體實驗室的一個全院中心。除了 Fulay、Kabbara 和 Roy,這項工作的共同作者還包括媒體藝術與科學研究生 William Brannon、Shrestha Mohanty、Cassandra Overney 和 Elinor Poole-Dayan。



新聞來源

本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!

Tags: Deb Roygenerative aiJad Kabbaralarge language models (LLMs)MIT CCCMIT Center for Constructive CommunicationMIT Media Labobjective truthsreality leans leftSuyash Fulaytraining datatruthfulness研究某些語言獎勵模型顯示政治偏見麻省理工學院新聞
Previous Post

時間序列中的缺失數據:機器學習技術 | 薩拉·諾布雷加 | 2024年12月

Next Post

重訪強化學習 | MIT新聞

Related Posts

AI 助力中風患者康復Devon 的 SAMueL-2 計畫創新突破
AI 綜合新聞

AI 助力中風患者康復Devon 的 SAMueL-2 計畫創新突破

2025-04-24
全球AI教育市場蓬勃發展智慧學習工具引領新趨勢
AI 綜合新聞

全球AI教育市場蓬勃發展智慧學習工具引領新趨勢

2025-04-21
2027 年 AI 預測人類水平 AI 的全新里程碑
AI 綜合新聞

2027 年 AI 預測人類水平 AI 的全新里程碑

2025-04-21
AI 技術對人類智能的影響我們在失去什麼?
AI 綜合新聞

AI 技術對人類智能的影響我們在失去什麼?

2025-04-20
MIT 研發新技術提升 AI 生成代碼準確性助力非專業人士掌握 SQL 語言
AI 綜合新聞

MIT 研發新技術提升 AI 生成代碼準確性助力非專業人士掌握 SQL 語言

2025-04-18
人工智慧重塑遊戲開發遊戲未來從現在開始
AI 綜合新聞

人工智慧重塑遊戲開發遊戲未來從現在開始

2025-04-18
Next Post
重訪強化學習 | MIT新聞

重訪強化學習 | MIT新聞

機器鰩採用更簡單、更高效的設計游得更快

機器鰩採用更簡單、更高效的設計游得更快

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。