星期六, 14 6 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 機器學習與應用

生成式人工智慧與公民機構

2025-03-04
in 機器學習與應用
0 0
0
生成式人工智慧與公民機構
Share on FacebookShare on Twitter
Your Ad


不同領域,不同目標

最近的事件讓我思考人工智慧 (AI) 與我們的公民機構之間的關係——比如政府、教育、公共圖書館等等。我們常常忘記,公民和政府組織與私人公司和營利企業本質上是非常不同的。它們的存在是為了幫助人們過上更好的生活,保護人們的權利,並讓機會變得可及,即使這些工作(尤其是這些工作)沒有立即的金錢回報。我經常想到公共圖書館,因為我來自一個熱愛和捍衛圖書館的家庭——它們的目標是為整個社區提供書籍、文化材料、社會支持、社區參與和對閱讀的熱愛,無論人們的支付能力如何。

在私人部門,效率是一個優化目標,因為每花在提供產品或服務上的一美元都是從利潤中扣除的一美元。簡單來說,目標是以最低的成本運營業務,並將最大金額以利潤的形式回報給自己或股東。相對而言,在公民領域,效率只有在能夠提高效能的情況下才是一個有意義的目標——即機構提供的服務能夠到達更多的受眾。

在公民領域,效率只有在能夠提高效能的情況下才是一個有意義的目標——即機構提供的服務能夠到達更多的受眾。

所以,如果你在圖書館,並且可以使用 AI 聊天機器人來在線回答讀者的問題,而不是指派一位圖書館員來做這件事,那麼這位圖書館員就可以幫助親自到訪的讀者、開發教育課程、支持社區服務或做其他許多事情。這是一種普遍的效率,可以提高圖書館作為一個機構的效能。從卡片目錄轉向數位目錄就是這種效率轉化為效能的典型例子,因為你可以在沙發上使用搜尋關鍵字來查詢你想要的書是否有庫存,而不必像我小時候那樣翻閱數百張卡片。

然而,我們可能會過度追求效率,而忽視了效能的最終目標。例如,如果你的在線圖書館聊天服務經常被在家做作業的學生使用,將它們替換為 AI 聊天機器人可能會造成災難——如果孩子從這樣的機器人那裡獲得錯誤的信息,並因此在學校得到不好的成績,可能會讓他們對圖書館失去興趣,甚至永遠不再尋求那裡的幫助。因此,重要的是在部署生成性 AI 解決方案時,必須經過深思熟慮和有目的,而不僅僅是因為媒體告訴我們「AI 很酷」。 (敏銳的讀者會知道,這基本上與我過去在企業中部署 AI 時所說的建議相似。)

因此,我們原本認為的效率提升導致的效能提高,實際上可能會減少終身讀者和圖書館訪客的數量,這將意味著圖書館的效能下降。有時,試圖提高效率所帶來的意外影響會降低我們提供普遍服務的能力。也就是說,在讓每一美元都能盡可能伸展和為所有受眾提供可靠、全面的服務之間,可能存在取捨。

有時,試圖提高效率所帶來的意外影響會降低我們提供普遍服務的能力。

AI 促進效率

值得更仔細地看看這個概念——AI 作為效率的推動者。廣義來說,我們經常聽到的理論是,將生成性 AI 更加融入我們的工作場所和組織中可以提高生產力。從經濟學的基礎層面來看:使用 AI,可以在相同的時間內由更少的人完成更多的工作,對吧?

讓我們挑戰這個想法的一些方面。AI 在完成某些任務時很有用,但在其他任務上卻不夠好。(正如我們想像中的學生圖書館讀者所學到的,LLM 不是可靠的事實來源,應該不被當作這樣對待。)因此,AI 提高用更少的人完成工作量(效率)的能力受到我們需要完成的工作的類型的限制。

如果我們的聊天介面僅用於簡單問題,比如「紀念日的圖書館開放時間是什麼?」我們可以連接一個 RAG(檢索增強生成)系統和 LLM,讓它變得非常有用。但在我們能提供給 LLM 的信息的有限範圍之外,我們應該設置防護措施,讓模型拒絕回答,以避免向讀者提供錯誤的信息。

所以,讓我們來看看這個情況。我們有一個聊天機器人,它的工作範圍非常有限,但做得很好。原本負責聊天機器人的圖書館員現在可能會減少一些工作量,但仍然會有一些問題需要他們的幫助。我們有幾個選擇:讓圖書館員在每週減少的工作時間內負責聊天機器人,期望問題在他們在場時出現?告訴人們如果聊天機器人拒絕回答就打電話到參考台或發送電子郵件?希望人們親自來圖書館詢問問題?

我懷疑最可能的選擇實際上是「讀者會在其他地方尋找答案,可能是從其他 LLM,如 ChatGPT、Claude 或 Gemini。」再次,我們又陷入了圖書館失去讀者的情況,因為他們的服務無法滿足讀者的需求。而且,讀者可能在其他地方得到了錯誤的答案,這是我們無法知道的。

我舉這個長例子只是為了說明,在公民環境中,效率和效能之間的關係可能比我們最初假設的要複雜得多。這並不是說 AI 在幫助公民組織擴展其服務能力方面沒有用!但就像任何生成性 AI 的應用一樣,我們需要非常小心地思考我們在做什麼,我們的目標是什麼,以及這兩者是否相容。

勞動的轉換

現在,這是一個非常簡單的例子,最終我們當然可以將整個百科全書連接到那個聊天機器人的 RAG 上,並嘗試讓它運作。事實上,我認為我們可以並且應該繼續開發更多方法來鏈接 AI 模型,以擴大它們可以執行的有價值工作的範圍,包括為不同的責任製作不同的特定模型。然而,這一發展本身就是一項工作。這不僅僅是「人們在工作」或「模型在工作」,而是「人們在建造 AI」或「人們在提供服務給其他人」。我們需要進行計算,以確定何時進行目標工作本身更有效,何時 AI 是正確的選擇。

開發 AI 的工作有一個優勢,就是希望能使任務可重複,因此會導致效率,但讓我們記住,AI 工程與參考圖書館員的工作是截然不同的。我們並不是在更換相同的工作人員、任務或技能組,而在當前的經濟中,AI 工程師的時間成本要高得多。因此,如果我們想用美元和美分來衡量這種效率,在參考台工作和提供聊天服務所花費的同樣時間,會比支付 AI 工程師開發更好的代理 AI 的成本便宜得多。給我們一點時間,我們可以計算出需要多少小時、天數或年數的參考圖書館員工作,才能讓這個聊天機器人的建設變得值得,但通常在我們轉向 AI 解決方案之前,這種計算並沒有進行。

我們需要質疑將生成性 AI 融入任何特定情境的假設,這是否保證能帶來效率的淨增益。

外部性

在我們討論 AI 解決方案在特定情況下是否值得的時候,我們應該記住,開發和使用 AI 來執行任務並不是在真空中進行的。當我們選擇使用生成性 AI 工具時,即使只是一次提示和一次回應,它也會產生環境和經濟上的一些成本。考慮到新發布的 GPT-4.5 在輸入標記的價格上增加了 30 倍(每百萬 $2.50 增加到 $75)和輸出標記的價格上增加了 15 倍(每百萬 $10 增加到 $150),這僅僅是自 GPT-4 以來的變化。而且這還不包括數據中心的水消耗(每生成 100 字的 GPT-4 需要 3 瓶水)、電力使用和用於 GPU 的稀土礦物。許多公民機構在宏觀層面上的目標是改善周圍的世界和社區公民的生活,而對環境的關注必須在其中佔有一席之地。那些旨在產生積極影響的組織是否應該更仔細地考慮融入 AI 的可能性?我認為是的。

此外,我不常深入討論這一點,但我認為我們應該花點時間考慮一些人對於融入 AI 的最終目標——徹底減少人員配置。與其讓我們現有的資金在機構內更有效地運用,有些人的想法是直接減少資金的數量,並將這些資金重新分配到其他地方。這自然引發了許多問題,關於這些資金將去往何處,以及是否會以其他方式促進社區居民的利益,但我們暫且不談這些。我的擔憂是,這種管理模式下可能會失去工作的那些人。

營利公司經常雇用和解雇員工,他們的優先事項和目標是以利潤為中心,因此這並不特別虛偽或不一致。但正如我上面提到的,公民組織的目標是改善它們所存在的社區。在某種程度上,它們在提供經濟機會給員工方面推進了這一目標。我們生活在一個社會中,工作是人們為自己和家庭提供生活的主要方式,給社區中的人們提供工作和支持社區的經濟福祉是公民機構所扮演的角色。

減少人員配置對於公民組織和政府並不是無條件的好事,而是必須與支付他們工資的資金將去往何處進行批判性平衡。

至少這意味著,減少人員配置對於公民組織和政府並不是無條件的好事,而是必須與支付他們工資的資金將去往何處進行批判性平衡。減少人員配置並不一定是正確的決定,但我們必須坦率承認,當社區成員面臨失業時,這種影響會連鎖反應。他們不再能夠支持他們原本會用自己的錢支持的商店和服務,稅基可能會減少,這會對整個社會造成負面影響。

工人不僅僅是工人;他們同時也是讀者、顧客和社區各方面的參與者。當我們將公民工作者視為僅僅是需要被 AI 取代的金錢黑洞,或是需要最小化其勞動成本的對象時,我們就失去了最初進行這項工作的原因。

結論

我希望這次討論能夠讓大家更清楚地了解,在公民領域中,決定是否、何時和如何應用生成性 AI 是多麼困難。這個思考過程遠沒有在營利領域中那麼簡單,因為公民機構的目的和核心意義完全不同。我們這些在私營部門從事機器學習和構建 AI 解決方案的人可能會想,「哦,我可以看到如何在政府中使用這個」,但我們必須認識到並欣賞這可能帶來的複雜背景影響。

下個月,我將帶來關於社會科學研究如何融入生成性 AI 的討論,這其中有一些非常有趣的方面。

如你所知,Towards Data Science 已經轉移到一個獨立的平台,但我將繼續在我的 Medium 頁面、個人網站和新的 TDS 平台上發佈我的作品,因此無論你去到哪裡,都能找到我。如果你想確保每篇文章都能送到你的郵箱,請訂閱我在 Medium 上的新聞信。

在 www.stephaniekirmer.com 上找到更多我的作品。

進一步閱讀

「這是一個檸檬」- OpenAI 最大的 AI 模型首次亮相,評價不一:GPT-4.5 在能力上提供邊際增益,但編碼表現不佳,儘管成本增加了 30 倍。arstechnica.com

使用 GPT-4 生成 100 字需要消耗多達 3 瓶水:新研究顯示生成性 AI 消耗大量水——生成 100 字文本需要多達 1,408 毫升的水。www.tomshardware.com

AI 繁榮的環境影響:數位世界無法在沒有運行所需的自然資源的情況下存在。我們正在使用的技術的成本是什麼……towardsdatascience.com

生成性 AI 的經濟學:考慮到我們今天對技術和市場的了解,生成性 AI 的商業模式是什麼?towardsdatascience.com



新聞來源

本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!

Tags: Ai ChatbotEditors Pickgenerative aiGenerative Ai Use CasesSociety生成式人工智慧與公民機構
Previous Post

馬庫斯·比勒獲得2025年華盛頓獎 | 麻省理工學院新聞

Next Post

Defog AI 開源內省:MIT 授權的深度研究,助您分析內部數據

Related Posts

劍橋大學和莫納什大學的研究人員推出 ReasonGraph:一個可視化和分析大型語言模型推理過程的網絡平台
機器學習與應用

劍橋大學和莫納什大學的研究人員推出 ReasonGraph:一個可視化和分析大型語言模型推理過程的網絡平台

2025-03-16
生成式人工智慧的影響及其對數據科學家的啟示
機器學習與應用

生成式人工智慧的影響及其對數據科學家的啟示

2025-03-15
這篇AI論文介紹了BD3-LMs:一種結合自回歸模型和擴散模型的混合方法,用於可擴展和高效的文本生成
機器學習與應用

這篇AI論文介紹了BD3-LMs:一種結合自回歸模型和擴散模型的混合方法,用於可擴展和高效的文本生成

2025-03-15
九個生鏽的Pico PIO瓦特(第二部分)
機器學習與應用

九個生鏽的Pico PIO瓦特(第二部分)

2025-03-15
開始使用 Amazon Bedrock Agents 的電腦操作
機器學習與應用

開始使用 Amazon Bedrock Agents 的電腦操作

2025-03-15
評估使用 Amazon Bedrock 知識庫的 RAG 應用程式
機器學習與應用

評估使用 Amazon Bedrock 知識庫的 RAG 應用程式

2025-03-14
Next Post
Defog AI 開源內省:MIT 授權的深度研究,助您分析內部數據

Defog AI 開源內省:MIT 授權的深度研究,助您分析內部數據

Uber H3 空間索引指南

Uber H3 空間索引指南

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 6 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。