星期一, 16 6 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 道德與法規

集中式人工智慧是危險的:我們該如何阻止它?

2024-11-08
in 道德與法規
0 0
0
集中式人工智慧是危險的:我們該如何阻止它?
Share on FacebookShare on Twitter
Your Ad


像是 OpenAI 的 ChatGPT 這類生成式人工智慧聊天機器人所展現的智慧,吸引了許多個人和企業的注意,人工智慧突然成為科技創新的最令人興奮的領域。

人工智慧被認為是一個改變遊戲規則的技術,能夠改變我們生活的許多方面。從個性化醫療到自駕車,從自動化投資到數位資產,人工智慧所帶來的可能性似乎是無窮無盡的。

然而,儘管人工智慧將帶來變革,但這項新技術也存在許多風險。雖然對於惡意的人工智慧系統像是天網(Skynet)失控的恐懼是多餘的,但人工智慧集中化的危險卻是真實存在的。隨著微軟(Microsoft)、谷歌(Google)和英偉達(Nvidia)等公司在追求人工智慧的過程中不斷前進,對於權力集中在少數幾家公司的擔憂變得越來越明顯。

為什麼我們應該擔心集中式人工智慧?

壟斷權力

集中式人工智慧最迫切的問題是幾家科技巨頭可能會對這個行業實現壟斷控制。這些大型科技公司已經在人工智慧領域積累了相當大的市場份額,擁有大量的數據。他們還控制著人工智慧系統運行的基礎設施,這使得他們能夠壓制競爭對手、阻礙創新,並加劇經濟不平等。

當這些公司在人工智慧的發展上取得壟斷時,他們更有可能對監管框架施加不公平的影響,並操控這些框架以獲取利益。這意味著缺乏大型科技公司巨大資源的小型新創公司將難以跟上創新的步伐。那些能夠生存下來並看起來可能會繁榮的公司幾乎肯定會被收購,進一步集中權力於少數人手中。結果將是人工智慧發展的多樣性減少,消費者的選擇變少,條件不再有利,限制了人工智慧所承諾的使用案例和經濟機會。

偏見與歧視

除了壟斷控制外,對於人工智慧系統的偏見也存在真正的擔憂,隨著社會越來越依賴人工智慧,這些擔憂將變得更加重要。

這種風險源於組織越來越依賴自動化系統在許多領域做出決策。例如,一家公司可能會使用人工智慧算法來篩選求職者,而偏見的系統可能會不公平地排除某些候選人,根據他們的種族、年齡或地點。保險公司使用人工智慧來設定保險費率,金融服務公司用來判斷某人是否符合貸款資格及其需支付的利息,而執法機構則用來確定哪些地區更可能發生犯罪。在所有這些使用案例中,偏見的人工智慧系統可能帶來的後果令人擔憂。

無論是執法針對少數族裔社區、歧視性貸款行為還是其他問題,集中式人工智慧都可能加劇社會不平等,並使系統性歧視得以存在。

隱私與監控

集中式人工智慧系統的另一個風險是缺乏隱私保護。當少數大型公司控制著大部分由人工智慧生成的數據時,他們就能對用戶進行前所未有的監控。最具主導地位的人工智慧平台所累積的數據可以用來監控、分析和預測個體的行為,這會侵蝕隱私並增加信息被濫用的潛在風險。

在專制政府的國家,這尤其令人擔憂,因為數據可以被武器化,創造出更精密的監控工具來監視公民。但即使在民主社會中,隨著監控的增加,仍然存在威脅,這在愛德華·史諾登(Edward Snowden)揭露的美國國家安全局的棱鏡計畫中得到了體現。

企業也可能濫用消費者的數據來增加利潤。此外,當集中實體累積大量敏感數據時,這使得它們成為駭客的誘人目標,增加了數據洩露的風險。

安全風險

集中式人工智慧也可能引發國家安全問題。例如,人們有理由擔心人工智慧系統可能被國家武器化,用於進行網絡戰爭、從事間諜活動和開發新武器系統。人工智慧可能成為未來戰爭中的關鍵工具,提升地緣政治衝突的風險。

人工智慧系統本身也可能成為攻擊目標。隨著各國對人工智慧的依賴增加,這些系統將成為誘人的目標,因為它們顯然是單一的失敗點。摧毀一個人工智慧系統可能會擾亂整個城市的交通流量,癱瘓電網等等。

倫理問題

集中式人工智慧的另一個主要擔憂是倫理問題。因為控制人工智慧系統的少數幾家公司將對社會的文化規範和價值觀產生重大影響,並且可能經常優先考慮利潤,這會引發更多的倫理問題。

例如,社交媒體平台已經廣泛使用人工智慧算法來管理內容,試圖識別和過濾冒犯性帖子。人們擔心這些算法可能會無意中或故意壓制言論自由。

目前已經對人工智慧驅動的內容管理系統的有效性存在爭議,許多看似無害的帖子被自動算法封鎖或刪除。這引發了人們的猜測,認為這些系統並不是壞掉了,而是根據平台試圖推廣的政治敘事在背後被操控。

替代方案?去中心化的人工智慧

對抗集中式人工智慧的唯一合理方法是發展去中心化的人工智慧系統,確保技術的控制權掌握在大多數人手中,而不是少數人。這樣,我們可以確保沒有單一公司或實體對人工智慧的發展方向產生重大影響。

當人工智慧的發展和治理由成千上萬或百萬個實體共同分享時,其進展將更加公平,更能符合個體的需求。結果將是更多樣化的人工智慧應用,幾乎無窮無盡的模型被不同的系統使用,而不是幾個主導行業的模型。

去中心化的人工智慧系統還將意味著對大規模監控和數據操控風險的制衡。集中式人工智慧可以被武器化並以不符合大多數人利益的方式使用,而去中心化的人工智慧則可以防範這種壓迫。

去中心化人工智慧的主要優勢在於每個人都能控制技術的演變,防止任何單一實體對其發展產生過大的影響。

如何去中心化人工智慧

去中心化的人工智慧需要重新思考構成人工智慧技術堆棧的各個層面,包括基礎設施(計算和網絡資源)、數據、模型、訓練、推理和微調過程。

如果底層基礎設施仍然完全由像亞馬遜(Amazon)、微軟(Microsoft)和谷歌(Google)這樣的雲計算巨頭控制,我們不能僅僅寄希望於開源模型。我們需要確保人工智慧的每個方面都是去中心化的。

去中心化人工智慧堆棧的最佳方法是將其分解為模組化組件,並根據供需創建市場。其中一個例子是 Spheron,它創建了一個去中心化的物理基礎設施網絡(DePIN),任何人都可以參與。

通過 Spheron 的 DePIN,每個人都可以自由分享他們未充分利用的計算資源,實際上是將其租給需要基礎設施來托管人工智慧應用的人。因此,一位使用強大 GPU 筆記本電腦的平面設計師可以在不使用其自己的工作時,將處理能力捐贈給 DePIN,並獲得代幣獎勵。

這意味著人工智慧基礎設施層變得廣泛分散和去中心化,沒有單一供應商控制。這是由區塊鏈技術和智能合約實現的,提供透明性、不變性和自動化。

DePIN 也可以用於開源模型和底層數據。例如,可以在像 Qubic 這樣的去中心化網絡上共享訓練數據集,這將確保每次人工智慧系統訪問這些數據時,數據提供者都能獲得報酬。

為了確保訪問和權限是去中心化的,技術堆棧的每個部分都以這種方式分散。然而,人工智慧行業目前仍難以提供這樣的去中心化水平。儘管開源模型在人工智慧開發者中變得非常受歡迎,但大多數人仍然依賴專有的雲網絡,這意味著訓練和推理過程高度集中。

但去中心化獲勝的動機是強烈的。例如,DePIN 網絡的一個主要優勢是它們有助於降低開支。因為像 Spheron 這樣的網絡不依賴中介,參與者不需要向第三方支付任何費用或分享收入。此外,他們在定價方面能夠比那些面臨盈利壓力的公司更具競爭力。

去中心化必須勝出

人工智慧的未來充滿潛力,但也充滿危險。儘管人工智慧系統的能力在過去幾年中有了顯著提高,但大多數進步都是由全能的公司實現的,這導致它們對行業的影響力增加。這樣的結果不僅僅是金錢上的代價。

唯一合理的替代方案是促進去中心化人工智慧的更大採用,這可以增強可及性並確保人工智慧的更大靈活性。通過讓每個人平等參與人工智慧的發展,我們將看到更多樣化、有趣和有用的應用,能夠平等地惠及每個人,並將用戶放在首位。

建立去中心化的人工智慧未來需要在人工智慧堆棧的每一層進行大量的協調和合作。幸運的是,參與者有強烈的動機去這樣做。而且,這些動機不僅僅是金錢上的。



新聞來源

本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!

Tags: 集中式人工智慧是危險的我們該如何阻止它
Previous Post

數據中的女性:認識數據女王莉茲·亨德森

Next Post

了解人工智慧對勞動力的影響

Related Posts

OpenAI 和 Google 呼籲美國政府採取行動以確保人工智慧領先地位
道德與法規

OpenAI 和 Google 呼籲美國政府採取行動以確保人工智慧領先地位

2025-03-15
數據啜飲:與馬爾科姆·霍克的訪談
道德與法規

數據啜飲:與馬爾科姆·霍克的訪談

2025-03-14
數據教育網路研討會:數據管理者的角色
道德與法規

數據教育網路研討會:數據管理者的角色

2025-03-14
這是必要的 – 驗證數據轉換的結果 (第 3 部分)
道德與法規

這是必要的 – 驗證數據轉換的結果 (第 3 部分)

2025-03-13
AI數據保留造成環境障礙
道德與法規

AI數據保留造成環境障礙

2025-03-11
請教數據倫理學家:我們如何能夠倫理地評估人工智慧系統對人類的影響?
道德與法規

請教數據倫理學家:我們如何能夠倫理地評估人工智慧系統對人類的影響?

2025-03-10
Next Post
了解人工智慧對勞動力的影響

了解人工智慧對勞動力的影響

雄心勃勃的機器人透過觀察學會清潔浴室水槽

雄心勃勃的機器人透過觀察學會清潔浴室水槽

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 6 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。