人工智慧與政策制定的結合有時會產生意想不到的後果,這一點最近在阿拉斯加得到了體現。
在一次不尋常的事件中,阿拉斯加的立法者據報導使用了不準確的 AI 生成的引用,來為一項禁止學校內使用手機的提議政策辯護。根據《阿拉斯加燈塔報》的報導,阿拉斯加的教育與早期發展部(DEED)提交了一份政策草案,其中包含的學術研究參考文獻根本不存在。
這一情況發生在阿拉斯加的教育專員迪娜·比肖(Deena Bishop)使用生成式 AI 起草手機政策的時候。AI 生成的文件中包含了一些所謂的學術引用,但這些引用既未經過驗證也不準確,然而該文件卻並未披露其準備過程中使用了 AI。某些 AI 生成的內容甚至在未經審查之前就傳送到了阿拉斯加州教育與早期發展委員會,可能影響了委員會的討論。
比肖專員後來聲稱,AI 只用於“創建引用”以便於初稿,並堅稱她在會議之前已經通過向委員會成員發送更新的引用來更正錯誤。然而,AI 的“幻覺”——在 AI 嘗試創建看似合理但未經驗證的內容時生成的虛構信息——仍然存在於委員會投票的最終文件中。
最終決議已在 DEED 的網站上公佈,指示該部門制定一項關於學校手機限制的模型政策。不幸的是,該文件包含了六個引用,其中四個似乎來自受人尊敬的科學期刊。然而,這些參考文獻完全是捏造的,網址指向的內容與之無關。這一事件顯示了在沒有適當人為驗證的情況下使用 AI 生成數據的風險,尤其是在制定政策時。
阿拉斯加的案例並不是孤例。AI 幻覺在各種專業領域中變得越來越普遍。例如,一些法律專業人士因在法庭上使用 AI 生成的虛構案件引用而面臨後果。同樣,使用 AI 創建的學術論文也包括了扭曲的數據和虛假的來源,這引發了嚴重的信譽擔憂。當不加檢查時,旨在根據模式而非事實準確性生成內容的生成式 AI 算法,容易產生誤導性的引用。
在政策制定中,特別是在教育領域,對 AI 生成數據的依賴帶來了重大風險。當政策是基於虛構信息制定時,可能會錯誤分配資源,並潛在地損害學生。例如,基於虛構數據的手機使用限制政策,可能會使人們的注意力轉移到其他更有效的基於證據的干預措施上,而這些措施可能真正惠及學生。
此外,使用未經驗證的 AI 數據可能會侵蝕公眾對政策制定過程和 AI 技術本身的信任。這類事件強調了在敏感決策領域,特別是在教育中使用 AI 時進行事實核查、透明度和謹慎的重要性,因為對學生的影響可能是深遠的。
阿拉斯加官員試圖淡化這一情況,將虛構的引用稱為“佔位符”,意在後續修正。然而,包含“佔位符”的文件仍然提交給了委員會,並作為投票的基礎,這突顯了在使用 AI 時需要嚴格監管。
(照片由 Hartono Creative Studio 提供)
另見:Anthropic 呼籲對 AI 進行監管以避免災難
想了解更多來自業界領導者的 AI 和大數據資訊嗎?請參加將在阿姆斯特丹、加利福尼亞和倫敦舉行的 AI & 大數據博覽會。這一綜合性活動與其他領先活動共同舉辦,包括智能自動化會議、BlockX、數位轉型週及網絡安全與雲端博覽會。
在此探索其他即將舉行的企業技術活動和由 TechForge 提供的網絡研討會。