星期六, 24 5 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 自然語言處理

保險領導者需要了解的10件關於生成式人工智慧和大型語言模型的事宜

2024-12-18
in 自然語言處理
0 0
0
保險領導者需要了解的10件關於生成式人工智慧和大型語言模型的事宜
Share on FacebookShare on Twitter
Your Ad


編輯註:這篇文章由阿莉·迪克森·瑞克 (Ali Dixon Ricke)、瑪麗·奧斯本 (Mary Osborne) 和富蘭克林·曼徹斯特 (Franklin Manchester) 共同撰寫。

最近,SAS 和科爾曼公園 (Coleman Parks) 進行的一項研究驚人地顯示,92% 的保險公司已經為 2025 年的生成式人工智慧 (Generative AI) 預留了預算。我們在過去一年中見證了生成式人工智慧的強大力量,特別是因為 ChatGPT 的快速成長。決策者們相信,生成式人工智慧可以推動創新、改善客戶體驗,並在預測分析上帶來可衡量的改善。

使用生成式人工智慧技術的考量

業界最初因為數據安全、隱私和聲譽風險而選擇避免和禁止使用生成式人工智慧的反應已經改變。領導者們認為好處超過風險,大多數公司正在進行初步測試,並表示他們對這項技術有足夠的了解,雖然不一定是全面的。

然而,調查中有一半的受訪者表示,他們在 2025 年的預算中只有 10% 或更少用於治理和監控,還有 9% 根本沒有預算分配。此外,58% 的受訪者形容他們的培訓非常有限,38% 則缺乏一項規範員工如何使用生成式人工智慧的政策。雖然這些結果與其他行業的發現相似,但這些決策者中有 7 成每週至少使用這些工具一次,卻創造了一個完美的風險情境。

保險領導者需要了解的生成式人工智慧的 10 件事

  • 6% 的保險公司考慮使用大型語言模型時已經有隱私風險措施。
  • 11% 擁有一個“不存在”的生成式人工智慧治理框架。
  • 8% 在專業生活中不使用生成式人工智慧。
  • 4% 沒有計劃使用生成式人工智慧。
  • 19% 不考慮使用合成數據的案例。
  • 75% 對隱私感到擔憂(見前一項)。
  • 3% 沒有為監管做好準備。
  • 只有 8% 重新思考他們的企業數據策略以擴展生成式人工智慧。
  • 34% 認為成本是一個障礙(但 92% 已經預留預算,86% 認為運營成本和時間節省的好處)。
  • 32% 仍處於試點階段。

生成式人工智慧策略的最佳實踐

如果沒有明確的生成式人工智慧策略和治理框架,生成式人工智慧可能會成為重大隱私和運營風險。為生成式人工智慧構建安全策略仍然是一個需要充分理解的主題,研究中有 75% 的保險公司對隱私風險表示擔憂。

人們很容易因為大型語言模型 (LLMs) 而產生錯誤的安全感。公共模型隨處可見且易於訪問。透過實驗 LLM 機器人來探索想法和尋找隱藏的見解是非常有價值的。在考慮要引入模型的數據時,重要的是要考慮數據的質量。更多的數據不一定是更好的。LLMs 的數據質量包括減少重複、模糊和噪音。

當人們不小心在提示中分享私人或敏感數據時,問題就會出現。最好的情況是這只是一次小失誤,沒有負面影響。最糟的情況是公共模型的服務條款中有條款說明他們如何使用用戶輸入的提示作為進一步訓練或微調的輸入。到那時,公共模型就會“污染”組織的私人或敏感數據。一旦這些數據進入模型,幾乎不可能將其移除,因此透過創意提示,私人或敏感數據可能會被揭露。犯這種錯誤的人並不是壞人,他們是你的員工或同事。

將模型投入生產

對生成式人工智慧的興趣很高,但在將模型投入生產之前還有很多工作要做。生成式人工智慧的使用案例應該經過深思熟慮,並且起初範圍要狹窄。組織中的人員需要能夠穿透炒作,識別出合理的使用案例。從小開始可以讓組織更好地思考模型的選擇,以及如何策劃領域數據,以給模型提供最佳的生成相關輸出的機會。

部署生成式人工智慧模型不僅僅是問機器人幾個問題。你必須考慮對抗性測試——如果壞人試圖操縱你的模型使其行為不當,會發生什麼?你必須花時間評估結果,就像對待環境中的任何其他類型模型一樣。最後,確保你的員工正確了解生成式人工智慧及其在組織內的可接受使用,因為受過教育的員工可以降低任何人工智慧不當行為或濫用的風險。

克服生成式人工智慧技術的障礙

為你的員工提供成功所需的工具,以及安全有效使用這項技術的指導和培訓。我們的人才是我們最大的資產,提供最新的技術能讓他們保持參與並解決問題。微軟 (Microsoft) 和領英 (LinkedIn) 最近的一項報告顯示,68% 的人對工作速度和工作量感到困難,46% 感到疲憊不堪。另一項研究顯示,54% 的早期職業員工在選擇雇主時會受到是否能接觸到人工智慧的影響。給你的員工提供所需的人工智慧,他們會感謝你。

在思考克服生成式人工智慧的障礙和這項技術的未來時,記住我們都處於人工智慧的轉折點。就像 90 年代中期全球網路的商業化一樣——而且就像互聯網在商業中變得無處不在一樣——人工智慧也將如此。現在是時候採取措施保護數據,重新思考數據策略並建立治理。

探索更多人工智慧資源

閱讀涵蓋本文討論的研究的論文

保險的未來

閱讀其他 SAS 關於人工智慧的文章



新聞來源

本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!

Tags: 保險領導者需要了解的10件關於生成式人工智慧和大型語言模型的事宜
Previous Post

簡化多模態生成AI與Amazon Bedrock數據自動化

Next Post

自主代理的解剖學 | 作者:艾瑞克·布羅達 | 2024年12月

Related Posts

OpenAI 正在開發代理人 — 每週 AI 通訊 (2025 年 3 月 17 日)
自然語言處理

OpenAI 正在開發代理人 — 每週 AI 通訊 (2025 年 3 月 17 日)

2025-03-17
什麼是自然語言語義學?
自然語言處理

什麼是自然語言語義學?

2025-03-13
阿拉伯方言的詞彙距離研究:全面概述
自然語言處理

阿拉伯方言的詞彙距離研究:全面概述

2025-03-12
阿里巴巴發布 QwQ-32B 並附上理由 — 每週 AI 通訊 (2025 年 3 月 10 日)
自然語言處理

阿里巴巴發布 QwQ-32B 並附上理由 — 每週 AI 通訊 (2025 年 3 月 10 日)

2025-03-10
GPT 4.5 發佈! — 每週 AI 通訊 (2025 年 3 月 3 日)
自然語言處理

GPT 4.5 發佈! — 每週 AI 通訊 (2025 年 3 月 3 日)

2025-03-03
自然語言處理的主要關鍵領域
自然語言處理

自然語言處理的主要關鍵領域

2025-03-03
Next Post
自主代理的解剖學 | 作者:艾瑞克·布羅達 | 2024年12月

自主代理的解剖學 | 作者:艾瑞克·布羅達 | 2024年12月

當麻省理工學院的跨學科NEET計畫完美契合 | 麻省理工學院新聞

當麻省理工學院的跨學科NEET計畫完美契合 | 麻省理工學院新聞

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。