在1942年,著名的科幻小說作家艾薩克·阿西莫夫 (Isaac Asimov) 在他的短篇小說《跑圈》中提出了三條機器人法則。這些法則後來在他的經典故事集《我,機器人》中變得更加知名。
第一法則
機器人不得傷害人類,或因不作為而讓人類受到傷害。
第二法則
機器人必須服從人類給予的命令,除非這些命令與第一法則相抵觸。
第三法則
機器人必須保護自己的存在,只要這種保護不與第一或第二法則相抵觸。
雖然這些法則來自虛構作品,但它們在機器人倫理的討論中影響深遠。隨著人工智慧 (AI) 系統——可以視為虛擬機器人——變得越來越先進,許多技術專家發現阿西莫夫的框架對於考慮與人類互動的AI所需的潛在安全措施非常有用。
但是,現有的三條法則已經不夠了。今天,我們正進入一個前所未有的人類與AI合作的時代,這是阿西莫夫幾乎無法想像的。生成式AI能力的快速進步,特別是在語言和圖像生成方面,帶來了超出阿西莫夫原始關注的挑戰。
深偽技術、錯誤資訊與詐騙
AI驅動的欺騙現象特別令人擔憂。根據聯邦調查局 (FBI) 2024年的《網路犯罪報告》,涉及數位操控和社交工程的網路犯罪造成的損失超過103億美元。歐洲聯盟網路安全局 (European Union Agency for Cybersecurity) 2023年的《威脅景觀》特別指出,深偽技術——看起來真實的合成媒體——成為數位身份和信任的新威脅。
社交媒體上的錯誤資訊像野火般蔓延。我在疫情期間對此進行了深入研究,只能說生成式AI工具的普及使得檢測錯誤資訊變得越來越困難。更糟糕的是,AI生成的文章與傳統宣傳一樣有說服力,甚至更具說服力,而使用AI創建令人信服的內容幾乎不需要任何努力。
深偽技術在社會中日益增長。機器人網絡可以利用AI生成的文本、語音和視頻來創造對任何政治議題的虛假支持感知。機器人現在能夠打電話和接電話,並且可以模仿他人。模仿熟悉聲音的AI詐騙電話越來越普遍,隨著AI生成的虛擬形象視頻通話詐騙的興起,詐騙者可以假裝成親人,針對最脆弱的人群。舉個例子,我的父親曾經看到一段我流利說西班牙語的視頻時感到驚訝,因為他知道我在這門語言上還只是初學者(在Duolingo上堅持了400天!)。可以說,這段視頻是經過AI編輯的。
更令人擔憂的是,孩子和青少年對AI代理產生情感依賴,有時無法區分與真實朋友和網上機器人的互動。已經有報導指出,有自殺事件與與AI聊天機器人的互動有關。
在他的2019年著作《人類兼容》中,著名計算機科學家斯圖爾特·拉塞爾 (Stuart Russell) 認為,AI系統欺騙人類的能力對社會信任構成了根本挑戰。這一擔憂在最近的政策倡議中得到了反映,最引人注目的就是歐洲聯盟的AI法案,其中包括要求AI互動透明和清楚標示AI生成內容的條款。在阿西莫夫的時代,人們無法想像人工代理如何利用在線通訊工具和虛擬形象來欺騙人類。
因此,我們必須對阿西莫夫的法則進行補充。
第四法則
機器人或AI不得通過模仿人類來欺騙人類。
邁向可信的AI
我們需要清晰的界限。雖然人類與AI的合作可以是建設性的,但AI的欺騙行為會破壞信任,導致時間浪費、情感困擾和資源濫用。人工代理必須自我識別,以確保我們與它們的互動是透明和有效的。AI生成的內容應該清楚標示,除非它已經被人類顯著編輯和調整。
實施這第四法則需要:
- 在直接互動中強制要求AI披露身份,
- 清楚標示AI生成的內容,
- 制定AI識別的技術標準,
- 建立法律框架以進行執行,
- 推動教育計畫以提高AI素養。
當然,這一切說起來容易做起來難。大量的研究工作已經在進行中,以尋找可靠的方法來水印或檢測AI生成的文本、音頻、圖像和視頻。創造我所呼籲的透明度還遠未解決。
但人類與AI合作的未來取決於保持人類與人工代理之間的明確區分。正如IEEE在2022年《倫理對齊設計》框架中所指出的,AI系統的透明度對於建立公眾信任和確保人工智慧的負責任發展至關重要。
阿西莫夫的複雜故事顯示,即使是試圖遵循規則的機器人,往往也會發現其行為的意外後果。不過,擁有試圖遵循阿西莫夫倫理準則的AI系統將是一個非常好的開始。
來自您網站的文章
網路上相關的文章
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!