星期日, 25 5 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 道德與法規

包容性治理:生成式人工智慧如何使公共服務對所有人可及

2024-09-03
in 道德與法規
0 0
0
包容性治理:生成式人工智慧如何使公共服務對所有人可及
Share on FacebookShare on Twitter
Your Ad


儘管公共部門隨著技術進步而不斷演變,其核心目標仍然不變:確保所有公民無論社會經濟地位、身體能力或地理位置如何,都能平等獲得公共服務。這一目標通常被稱為包容性治理,促使該部門不斷採用先進技術來改善公民參與、簡化運營並做出明智決策。在1990年代,互聯網的出現使公共部門採用了電子政府,將公共服務上線,並允許政府通過網站與公民互動。如今,生成式人工智慧正在發揮類似的變革性作用,改變用戶與服務的互動方式,提供個性化體驗,改善可及性以及簡化工作環境。根據波士頓諮詢公司(BCG)的估計,公共部門正日益投資於生成式人工智慧,其生產力增長預計到2033年將達到每年1.75萬億美元。本文探討生成式人工智慧如何塑造公共服務的未來,並推進包容性治理的目標。

增強可及性

生成式人工智慧透過減少長期影響邊緣化和服務不足社區的障礙,使公共服務更加可及。傳統的公共服務模式往往因缺乏個性化協助、語言障礙以及殘疾人士所面臨的挑戰而難以觸及這些群體。生成式人工智慧以多種方式幫助解決這些問題:

生成式人工智慧驅動的工具,如聊天機器人和虛擬助手,提供個性化支持,使用戶更容易瀏覽複雜的官僚系統。例如,在德國海德堡,該市推出了Lumi,一個聊天機器人,幫助公民和遊客解答各種查詢,從更改地址到了解垃圾收集的信息。Lumi從公共可用的城市數據中提取信息,並根據用戶互動不斷改進。

生成式人工智慧驅動的翻譯工具也正在消除語言障礙,確保非母語使用者能以其首選語言訪問重要信息和服務。這在語言多樣性顯著的多元文化社會中尤其重要。例如,加利福尼亞州的斯托克頓和費爾菲爾德市推出了一種翻譯工具,居民可以通過移動或網絡渠道使用,通過亞馬遜翻譯與地方政府用71種語言進行交流。在印度,Jugalbandi項目利用生成式人工智慧驅動的聊天機器人在WhatsApp和Telegram上幫助農村居民以他們自己的語言訪問政府服務。這些聊天機器人可以以文本和語音形式回應,目前支持10種語言,涵蓋171個政府項目,使公民更容易獲取所需信息。

生成式人工智慧驅動的輔助技術也在改善殘疾人士的可及性。這是至關重要的,因為在2023年,至少有一種殘疾的人口佔美國總人口的13%,而他們在勞動力中的參與率從2022年的21.3%提高到2023年的22.5%。為了支持這些人群,美國司法部最近發布了指導方針,要求州和地方政府確保其網站和移動應用程序的可及性。各組織正在通過開發生成式人工智慧驅動的屏幕閱讀器來回應這一需求,例如iOS的VoiceOver和Android的TalkBack,使視力受損的個體能更獨立地瀏覽政府網站並獲取信息。

增強公民參與

除了可及性,包容性治理的另一個重要方面是建立有效的公民參與。政府機構處理的功能範圍廣泛,從公共衛生倡議到旅遊推廣。當公民向機構提出查詢時,人類代理往往面臨迅速找到和總結數據的挑戰,這可能會耗費時間和人力。這有時會未能滿足公民對有效和有吸引力互動的期望。

生成式人工智慧驅動的虛擬助手正在幫助解決這些挑戰,為公民查詢提供個性化回應。例如,EMMA是一個由美國公民及移民服務局在國土安全部下開發的聊天機器人。EMMA幫助用戶處理各種服務,包括移民、綠卡和護照,並支持英語和西班牙語。英語版本甚至允許語音互動,指導用戶瀏覽網站。EMMA每月處理約100萬次互動,顯示出其在改善公民參與方面的價值。

同樣,澳大利亞政府使用名為Alex的聊天機器人來幫助個人和企業解決稅務相關問題,如財產權、收入、扣除和報稅。Alex有效地指導用戶到相關內容,節省時間並改善整體用戶體驗。

做出包容性決策

包容性治理的一個關鍵方面是無論公民的社會經濟地位、種族或個人關係如何,都要公平和公正地做出決策。生成式人工智慧正在幫助公共部門做出包容性決策。在公共部門中,生成式人工智慧驅動的自動招聘過程的使用日益增長,這是一個包容性決策的顯著例子。該系統以最小化人為偏見的方式篩選簡歷和申請。通過隱藏個人細節並僅專注於相關的資格和經驗,生成式人工智慧幫助確保所有候選人僅根據其優點進行評估。

例如,紐約市使用生成式人工智慧驅動的招聘平台已經通過標準化評估和去除個人識別信息,導致更具多樣性的候選人池。同樣,英國的公共服務使用人工智慧篩選申請並評估多樣性,這提高了其招聘實踐的公平性。

制定包容性政策

生成式人工智慧正在通過數據分析改變政策制定,實現更具包容性的方法。通過檢查大量數據集,人工智慧幫助識別各個人口群體的需求和偏好,確保政策反映所有公民的利益,並導致更公平的結果。

例如,洛杉磯市利用人工智慧驅動的分析更好地了解社區需求並優化資源分配。通過分析與住房、交通和公共衛生相關的數據,該市能夠做出明智的決策,以滿足其多樣化且經常被邊緣化的人口的需求。

同樣,英國國民健康服務(NHS)利用生成式人工智慧預測醫療服務的患者需求。對患者數據和趨勢的分析使NHS能更有效地分配資源,確保脆弱群體獲得及時的護理。

確保公共部門負責任地使用生成式人工智慧

雖然生成式人工智慧對於改變公共部門具有巨大潛力,但必須負責任地使用,以確保這項技術公平地惠及所有公民。為了實現這一目標,公共部門機構正在制定應對這些挑戰的政策。這些政策的例子包括歐盟的人工智慧法案,旨在規範高風險的人工智慧應用,以及美國的算法問責法,專注於人工智慧系統的透明度和公平性。這些政策的一些主要指導原則包括:

確保透明度和可解釋性:生成式人工智慧系統應設計為透明運行。這需要提供清晰的解釋,說明生成式人工智慧如何做出決策,並確保其過程對非專家可理解。透明性有助於建立信任,並讓公民理解決策的過程及其原因。
確保公平和無偏見:生成式人工智慧系統可能會無意中延續或放大訓練數據中存在的偏見。為了減少這一風險,定期評估人工智慧模型以識別潛在偏見並採取糾正措施是非常重要的。
優先考慮數據隱私和安全:在公共部門實施生成式人工智慧的一個主要挑戰是確保敏感數據的安全性。公共部門數據通常非常敏感,必須始終受到保護。為了有效使用生成式人工智慧,必須確保數據隱私和安全措施得到嚴格維護。
促進問責:問責是促進包容性治理中使用生成式人工智慧的一個關鍵方面。這包括設立獨立機構或委員會來監測人工智慧系統的部署和影響。它還涉及創建公眾反饋渠道,確保社區意見能夠導致必要的調整和改進。

結論

生成式人工智慧正在通過增強可及性、改善公民參與和促進包容性決策來改變公共部門。其提供個性化支持、克服語言障礙及協助殘疾人士的能力,使公共服務變得更加公平和高效。隨著公共部門機構日益整合生成式人工智慧,它們必須應對與透明度、公平性和數據安全相關的挑戰。負責任的實施,受強有力的政策和道德標準指導,對確保生成式人工智慧真正推進包容性治理的目標至關重要,讓所有公民的服務變得更加可及和公平。



Source link

Tags: Generative AI and Citizen EngagementGenerative AI and Citizen ServicesGenerative AI for AccessibilityGenerative AI in Government OperationsGenerative AI in Policy DevelopmentGenerative AI in Public ServicesInclusive GovernanceResponsible AI Use in Public Sector包容性治理生成式人工智慧如何使公共服務對所有人可及
Previous Post

科學家發現處理語言的神經元在不同時間尺度上 | 麻省理工學院新聞

Next Post

三種自然語言處理方法可用於識別大型語言模型相關的私人數據洩漏並降低風險

Related Posts

OpenAI 和 Google 呼籲美國政府採取行動以確保人工智慧領先地位
道德與法規

OpenAI 和 Google 呼籲美國政府採取行動以確保人工智慧領先地位

2025-03-15
數據啜飲:與馬爾科姆·霍克的訪談
道德與法規

數據啜飲:與馬爾科姆·霍克的訪談

2025-03-14
數據教育網路研討會:數據管理者的角色
道德與法規

數據教育網路研討會:數據管理者的角色

2025-03-14
這是必要的 – 驗證數據轉換的結果 (第 3 部分)
道德與法規

這是必要的 – 驗證數據轉換的結果 (第 3 部分)

2025-03-13
AI數據保留造成環境障礙
道德與法規

AI數據保留造成環境障礙

2025-03-11
請教數據倫理學家:我們如何能夠倫理地評估人工智慧系統對人類的影響?
道德與法規

請教數據倫理學家:我們如何能夠倫理地評估人工智慧系統對人類的影響?

2025-03-10
Next Post
三種自然語言處理方法可用於識別大型語言模型相關的私人數據洩漏並降低風險

三種自然語言處理方法可用於識別大型語言模型相關的私人數據洩漏並降低風險

研究評估刺激丘腦的癲癇風險 | 麻省理工學院新聞

研究評估刺激丘腦的癲癇風險 | 麻省理工學院新聞

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。