美國國家標準與技術研究所(NIST)新指示
美國國家標準與技術研究所(NIST)最近向與美國人工智慧安全研究所(AISI)合作的科學家發佈了新的指示,這些指示不再提到「人工智慧安全」、「負責任的人工智慧」和「人工智慧公平性」,而是要求優先考慮「減少意識形態偏見,以促進人類繁榮和經濟競爭力」。
更新的合作研究協議
這些信息是作為更新的合作研究與開發協議的一部分,於三月初發送給人工智慧安全研究所的成員。之前的協議鼓勵研究人員貢獻技術工作,以幫助識別和修正與性別、種族、年齡或財富不平等相關的歧視性模型行為。這些偏見非常重要,因為它們會直接影響最終用戶,並對少數族裔和經濟弱勢群體造成不成比例的傷害。
新協議的變化
新的協議刪除了關於開發「驗證內容和追踪其來源」的工具以及「標記合成內容」的提法,這表明對於追踪錯誤信息和深度偽造的興趣減少。它還強調了將美國放在首位,要求一個工作小組開發測試工具「以擴大美國在全球人工智慧中的地位」。
研究者的擔憂
一位與人工智慧安全研究所合作的研究者表示:「特朗普政府已經將安全性、公平性、錯誤信息和責任從人工智慧的價值中移除,我認為這已經很明顯。」這位研究者擔心,忽視這些問題可能會對普通用戶造成傷害,因為這可能會允許基於收入或其他人口統計特徵的歧視性算法不受監控。他說:「除非你是科技億萬富翁,否則這將導致你和你所關心的人未來變得更糟。預期人工智慧將是不公平的、歧視性的、不安全的,並且不負責任地使用。」
人類繁榮的意義
另一位曾與人工智慧安全研究所合作的研究者表示:「這真是太瘋狂了,對人類繁榮的意義到底是什麼?」
埃隆·馬斯克的批評
埃隆·馬斯克目前正在代表特朗普總統推動一項有爭議的努力,旨在削減政府開支和官僚主義。他批評了OpenAI和Google所建立的人工智慧模型。去年二月,他在X平台上發佈了一張迷因,將Gemini和OpenAI標記為「種族主義者」和「覺醒」。他經常提到一個事件,當時Google的一個模型辯論是否錯誤地稱呼某人,即使這樣可以防止核災難——這是一個極不可能的情況。除了特斯拉和SpaceX,馬斯克還經營著xAI,這是一家與OpenAI和Google直接競爭的人工智慧公司。最近,一位為xAI提供建議的研究者開發了一種新技術,可能會改變大型語言模型的政治傾向,根據《WIRED》的報導。
政治偏見的影響
越來越多的研究顯示,人工智慧模型中的政治偏見可能會影響自由派和保守派。例如,2021年發表的一項關於Twitter推薦算法的研究顯示,使用者更有可能在平台上看到偏向右派的觀點。
政府效率部門的影響
自一月以來,馬斯克所謂的政府效率部門(DOGE)一直在美國政府內部進行清理,有效地解雇了公務員,暫停開支,並創造了一個被認為對可能反對特朗普政府目標的人不友好的環境。一些政府部門,例如教育部,已經存檔並刪除了提到多元、公平和包容(DEI)的文件。DOGE最近也針對了NIST,AISI的母組織,數十名員工被解雇。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!