麻省理工學院的計算倫理課程
在6.C40/24.C40班的會議上,阿曼多·索拉-萊薩馬教授(Armando Solar-Lezama)向學生提出了一個他經常問自己的問題:“我們怎麼能確保機器只做我們想要的事?”
在這個被一些人視為生成式人工智慧的黃金時代,這似乎是一個緊迫的新問題。然而,索拉-萊薩馬教授,麻省理工學院(MIT)計算機學的傑出教授,迅速指出這種掙扎與人類歷史一樣古老。
他開始講述希臘神話中米達斯王的故事,這位國王被賦予了將他所觸碰的任何東西變成金子的神奇力量。可預測的是,這個願望反而讓米達斯不小心把他所愛的人變成了金色的石頭。
“小心你所要求的,因為它可能以你意想不到的方式實現,”他告誡學生們,許多學生都是有志於成為數學家和程序員。
索拉-萊薩馬教授翻閱麻省理工學院的檔案,分享一些模糊的黑白照片,講述編程的歷史。我們聽到1970年代的皮格馬利翁機器需要非常詳細的提示,直到90年代末的計算機軟體需要數年和800頁的文件來編程。
雖然在當時這些過程都很了不起,但它們花了太長時間才到達用戶手中,沒有留下自發發現、遊玩和創新的空間。
索拉-萊薩馬教授談到建造現代機器的風險,這些機器不總是尊重程序員的提示或紅線,並且同樣能造成傷害或拯救生命。
電機工程系的高年級學生蒂圖斯·羅斯勒(Titus Roesler)點頭表示理解。羅斯勒正在撰寫有關自動駕駛汽車倫理的最終論文,考慮當一輛假設的自動駕駛汽車撞到並殺死行人時,誰應該負道德責任。他的論點質疑技術進步背後的基本假設,並考慮多種有效觀點,依賴於功利主義的哲學理論。羅斯勒解釋說:“根據功利主義,正確的道德行為是為最多人帶來最大利益。”
麻省理工學院的哲學家布拉德·斯科(Brad Skow)與索拉-萊薩馬教授共同開發並共同授課這門課程,他向前傾身做筆記。
一門需要技術和哲學專業知識的課程
計算倫理課程將於2024年秋季首次開設,這是麻省理工學院施瓦茨曼計算機學院(MIT Schwarzman College of Computing)的一個倡議,旨在將多個學系聚集在一起,開發和教授新課程,並啟動將計算與其他學科結合的新項目。
講師們輪流授課。斯科,勞倫斯·S·洛克菲勒哲學教授,從哲學的角度檢視當今倫理問題的更廣泛影響,而索拉-萊薩馬教授則從他的角度提供見解。
斯科和索拉-萊薩馬教授參加彼此的講座,並根據需要調整後續課程。即時互相學習的元素使課堂對話更加生動和靈活。與哲學或計算機科學的研究生一起討論本週主題的重點,並進行熱烈的討論,結合了課程內容。
斯科說:“外部人士可能會認為這是一門確保麻省理工學院培養的新計算機程序員總是做正確事情的課程。然而,這門課程的設計是為了教學生不同的技能。”
哲學教授卡斯帕·海爾(Caspar Hare)決心創建一門有影響力的學期課程,不僅僅是教學生對錯,他在擔任計算的社會和倫理責任副院長時構思了計算倫理課程的想法。海爾招募了斯科和索拉-萊薩馬教授作為主要講師,因為他知道他們能做出更深刻的事情。
斯科說:“深入思考這門課程中出現的問題需要技術和哲學的專業知識。麻省理工學院沒有其他課程能將這兩者並排放置。”
這正是高年級學生阿萊克·韋斯托弗(Alek Westover)選擇報名的原因。這位數學和計算機科學的雙主修學生解釋說:“很多人都在談論未來五年人工智慧的發展。我認為參加一門能幫助我更深入思考這個問題的課程是很重要的。”
韋斯托弗表示,他對哲學感興趣,因為他想了解倫理,並區分對錯。在數學課上,他學會了寫下問題陳述,並立即清楚自己是否成功解決了問題。然而,在計算倫理課程中,他學會了如何為“棘手的哲學問題”撰寫論證,這些問題可能沒有單一的正確答案。
例如,韋斯托弗問:“我們可能會擔心的一個問題是,如果我們建造出能做任何人類能做的工作的強大人工智慧代理,會發生什麼?”他接著問:“如果我們與這些人工智慧的互動達到這種程度,我們應該給他們薪水嗎?我們應該多在意他們的需求嗎?”
這沒有簡單的答案,韋斯托弗認為未來在工作中會遇到許多其他困境。
“那麼,互聯網正在摧毀世界嗎?”
學期開始時,深入探討人工智慧風險,或“人工智慧是否對人類構成生存風險”的概念,探討自由意志、大腦如何在不確定性下做決策的科學,以及有關人工智慧的長期責任和監管的辯論。第二個較長的單元專注於“互聯網、萬維網和技術決策的社會影響”。學期結束時將討論隱私、偏見和言論自由。
有一個課題專門探討:“那麼,互聯網正在摧毀世界嗎?”
高年級學生凱特琳·奧戈(Caitlin Ogoe)主修計算與認知。她報名這門課的原因正是因為她能在這樣的環境中檢視這些問題。奧戈表示,自己是一名“技術懷疑者”。
奧戈在一個聽力受損的母親和一個有發展障礙的小妹妹的家庭中長大,成為了家裡負責打電話給技術支援或設定iPhone的成員。她利用自己的技能做了兼職修理手機,這讓她對計算產生了深厚的興趣,並鋪平了她進入麻省理工學院的道路。然而,第一年的一個著名暑期獎學金讓她質疑自己所幫助編程的技術對消費者的影響。
奧戈說:“我所做的所有技術工作都是從人、教育和個人聯繫的角度出發。這是我喜愛的領域。參加有關公共政策、技術和文化的人文課程是我的一大熱情,但這是我第一次參加涉及哲學教授的課程。”
接下來的一周,斯科講授人工智慧中的偏見角色,而奧戈明年將進入職場,但計劃最終進入法學院專注於相關問題的監管,四次舉手提問或分享反駁觀點。
斯科深入探討了COMPAS,一個有爭議的人工智慧軟體,使用算法預測被指控犯罪的人再次犯罪的可能性。根據2018年《普羅公共報》(ProPublica)的一篇文章,COMPAS可能會將黑人被告標記為未來的罪犯,並且給出的假陽性率是白人被告的兩倍。
這堂課專注於確定該文章是否足以得出COMPAS系統存在偏見並應該停止使用的結論。為此,斯科介紹了兩種不同的公平理論:
“實質公平是指某一特定結果可能是公平或不公平的想法,”他解釋道。“程序公平則是指產生結果的過程是否公平。”然後介紹了多種相互矛盾的公平標準,班上討論哪些是合理的,並對COMPAS系統得出什麼結論。
稍後,兩位教授上樓到索拉-萊薩馬的辦公室,回顧當天的課程。
索拉-萊薩馬說:“誰知道呢?也許五年後,每個人都會笑著說人們擔心人工智慧的生存風險。但我在這門課中看到的一個主題是學會在媒體話語之外接近這些辯論,並深入思考這些問題。”
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!