OpenAI 的 CEO 山姆·阿特曼 (Sam Altman) 預測 AGI 的來臨
OpenAI 的 CEO 山姆·阿特曼 (Sam Altman) 預期 AGI,也就是人工通用智慧——能在大多數任務上超越人類的 AI——會在 2027 或 2028 年出現。埃隆·馬斯克 (Elon Musk) 的預測是 2025 或 2026 年,他聲稱因為 AI 的危險而「失眠」。不過,這些預測可能是錯誤的。隨著目前 AI 的限制越來越明顯,大多數 AI 研究人員認為,僅僅建造更大、更強大的聊天機器人並不會導致 AGI 的誕生。
2025 年的 AI 風險
然而,在 2025 年,AI 仍然會帶來巨大的風險:這些風險不是來自人工超智慧,而是來自人類的誤用。
不小心的誤用
這些誤用可能是無心的,比如律師過度依賴 AI。以 ChatGPT 的推出為例,一些律師因為使用 AI 生成錯誤的法庭簡報而受到懲罰,顯然他們沒有意識到聊天機器人可能會捏造內容。在不列顛哥倫比亞省,律師莊克 (Chong Ke) 被要求支付對方律師的費用,因為她在法律文件中引用了虛構的 AI 生成案例。在紐約,史蒂文·施瓦茨 (Steven Schwartz) 和彼得·洛杜卡 (Peter LoDuca) 被罰款 5,000 美元,因為提供了虛假的引用。在科羅拉多州,扎卡里亞·克拉比爾 (Zachariah Crabill) 因為使用 ChatGPT 生成的虛構法庭案件而被暫停執業一年,並將錯誤歸咎於「法律實習生」。這樣的案例正在迅速增加。
故意的誤用
另外一些誤用則是故意的。在 2024 年 1 月,泰勒·斯威夫特 (Taylor Swift) 的色情深度偽造影像在社交媒體上大量出現。這些影像是使用微軟 (Microsoft) 的「設計師」AI 工具創建的。儘管該公司有防護措施以避免生成真實人物的影像,但因為拼錯了斯威夫特的名字,導致這些防護措施失效。微軟之後修正了這個錯誤。但泰勒·斯威夫特只是冰山一角,非自願的深度偽造影像正在廣泛流傳,部分原因是開源工具可以公開獲得。世界各地正在進行立法以打擊深度偽造,希望能減少損害,但是否有效仍有待觀察。
2025 年的真實與虛構
到了 2025 年,區分真實和虛構的事情會變得更加困難。AI 生成的音頻、文本和影像的真實性相當驚人,接下來可能會是影片。這可能會導致「說謊者紅利」:掌權者可能會否認自己的不當行為,聲稱證據是偽造的。在 2023 年,特斯拉 (Tesla) 辯稱,2016 年的埃隆·馬斯克影片可能是深度偽造的,以回應有關該 CEO 誇大特斯拉自動駕駛安全性導致事故的指控。一位印度政治家聲稱,關於他承認政黨貪污的音頻片段是經過編輯的(至少有一段音頻被媒體驗證為真)。而 1 月 6 日暴動中的兩名被告聲稱他們出現的影片是深度偽造的,但兩人都被判有罪。
企業的濫用
同時,企業利用公眾的困惑來販賣本質上有疑慮的產品,並標榜為「AI」。當這些工具用來分類人們,並對他們做出重要決策時,可能會出現很大的問題。例如,招聘公司 Retorio 聲稱其 AI 能根據視頻面試預測候選人的工作適合度,但一項研究發現,這個系統可以通過佩戴眼鏡或將普通背景替換為書櫃來輕易欺騙,顯示它只是依賴表面的相關性。
AI 在各個領域的應用
在醫療、教育、金融、刑事司法和保險等領域,AI 的應用數量也在增加,而這些應用可能會剝奪人們的重要生活機會。在荷蘭,荷蘭稅務局使用 AI 演算法來識別涉及兒童福利欺詐的人,結果錯誤指控了數千名父母,經常要求他們償還數萬歐元。在這場風波中,首相和整個內閣辭職。
結論
在 2025 年,我們預期 AI 的風險不會來自 AI 自行行動,而是來自人類如何使用它。這包括那些看似運作良好並被過度依賴的案例(律師使用 ChatGPT);運作良好但被錯誤使用的案例(非自願的深度偽造和說謊者紅利);以及根本不適用的案例(剝奪人們的權利)。減輕這些風險對於企業、政府和社會來說都是一項艱巨的任務。在不被科幻問題分心的情況下,這將變得更加困難。
新聞來源
本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!