失敗伴隨著所有科技突破 – 輪子、載人飛行、互聯網,人工智慧(AI)也不例外。
我知道保險公司正在使用人工智慧 – SAS 的研究證實了這一點。到 2025 年,90% 的保險公司已經預算了生成型人工智慧(GenAI)。我也知道,只有 10% 的保險公司(11%)完全「為 AI 做好準備」。其他研究顯示,只有 26% 的組織正在從 AI 中獲得價值。
正確使用 AI 會帶來很大的價值。但就像其他科技創新一樣,AI 可以用於好事或壞事。
保險公司將會發現更多使用 AI 的方法,這些方法能夠推動創新和效率,最終提高那 26% 的比例。但隨著 AI 的使用,確保 AI 有效治理、管理、民主化並且不帶偏見的需求也在增長。
失敗並不是壞事
失敗確實會帶來不好的結果。但失敗本身並沒有意圖,無論是善意還是惡意。隨著失敗而來的學習,卻是必然的選擇。
舉個例子,讓我們來看看我們(整個地球)從 Crowd Strike 事件中學到了什麼。
絆倒在電線上
慕尼黑再保險公司(Munich Re)估計網路保險市場約為 150 億美元,因此 7 月 19 日的 Crowd Strike 事件可能對綜合比率造成 10 點的影響(對網路保險公司估計成本為 15 億美元)。這是過去 20 年來網路保險行業中最大的單一保險損失事件,結果是:
諷刺的是,這是一樁內部事件 – 一個負責我們全球網路保護的組織推送了一個更新,導致系統崩潰。
這個「意外」,我們稱之為,提醒我們即使在平凡的事情中也必須保持警惕。我們學到小錯誤可能會(而且確實會)讓世界陷入完全的混亂。而且在 AI 的情況下,失敗可以並且會被放大到其全部計算能力。
當我們考慮到人工智慧無限擴展的能力和原始力量時,我們發現 AI 的重大成本是可以合理化的。我們還發現,在選擇 AI 能做什麼和不該做什麼時需要謹慎考慮。
今天的 AI 的力量
我們已經達到了「AI 超級計算」,這意味著地球上最強大的電腦可以以每秒 1 exaFLOPS(浮點運算每秒)進行計算。換句話說,這台機器在一秒鐘內可以進行「1」後面跟著 18 個零的計算。人類需要 317 億年才能進行同樣數量的計算。
擁有這種能力,AI 的失敗會需要數十億年才能抹去嗎?
嗯,也許會。一位 AI 研究者 Eliezer Yudkowsky 提出了名為「Squiggle Maximizer」的思維實驗。這個實驗涉及一個強大的 AI 不斷追求一個簡單的目標,比如生產迴紋針。
在這個情境中,AI 消耗了太多資源,導致人類滅絕。考慮到 AI 的能量需求,這樣的情境比一個惡意的「天網」型 AI 攻擊我們更有可能。即使是看似無害的錯誤也可能是災難性的。
想像一下,例如,一百萬名保單持有者收到無限的汽車和房屋捆綁的垃圾郵件廣告。這可能會使全球的電子郵件伺服器崩潰。
任何一個估計有 30,000 家金融科技(fintech)公司都可以通過點擊滑鼠使上述情境成為現實。這麼多公司推銷 AI 解決方案,真的是體現了某些人所稱的「AI 西部大開發」(參見這個有趣的馬修·麥康納(Matthew McConaughey)廣告活動)。
沒有任何一位警長能夠監管數以萬計的個別企業,這些企業都在爭取你的注意(和你的錢)。這種 AI 的放大效應將進一步扭曲基礎系統的弱點。

考慮一下聯邦貿易委員會(FTC)對基於信用的保險評分與對非裔美國人和西班牙裔的預測風險影響之間關係的研究。這些影響使保險公司面臨大量的審查。
因此,在選擇你的合作夥伴和解決方案時需要謹慎 – 沒有監管機構會為你監管。令人擔憂的是,當你考慮到這些 AI 供應商(或假冒者)中的任何一個時,支持 AI 所需的能量真是令人震驚。
它是電的
最近,顯示出 OpenAI 需要代際政策變革和基礎設施,以便美國保持全球 AI 的領導地位。是的,阿爾特曼(Altman)在網址 chat.com 上花了數百萬(這是一個聰明的行銷舉動),但事實是 AI 的成本非常高。
根據 NPR 的報導,對 ChatGPT 的一次查詢需要的能量是 Google 搜索的 10 倍。所需的巨大資源已經包含在成本中。而通往智慧時代的高速公路將充滿錯誤的決策:在沙漠中用乾淨的飲用水來冷卻數據中心,每年耗費數百萬加侖的水。
當我們考慮到「到 2030 年,數據中心將使用全球能源生產的 4.5%」這樣的預測時,情況變得更加黯淡。因此,繼續開採化石燃料將對進步造成阻礙。而受到影響最深的將是已經邊緣化的群體。
氣候風險正在為保險公司創造巨大的災難。但這裡的重點很簡單:AI 的需求將在未來幾年內持續推高成本。
所以,我們不能把 AI 用在所有事情上。從長遠來看,這可能會造成比好處更多的傷害。
對於企業整體數據和 AI 策略的謹慎方法應該包括承認某些非 AI 工具仍然具有價值。而用 AI 大錘砸核桃則是浪費精力。
底線:接受失敗,擁抱學習
對於保險公司來說,使用 AI 是不可避免的,伴隨著它的失敗也同樣不可避免。我們已經看到在這個行業及其周邊的 AI 和非 AI 技術失敗的例子 – 甚至是壯觀的失敗。考慮一下:
不要害怕失敗。事實上,應該害怕那些相信自己不會失敗的人。
上述每個例子都給各自的組織帶來了巨大的成本(實際金錢、品牌損害等)。但隨著這些經驗而來的學習是無價的。
在 PxDx 的例子中,過程和技術運作良好。技術上的薄弱環節是流程結束時的審查者,以及組織對「最後防線」的支持(無論是真實還是感知)不足。
有了這些知識,AI 的成功感覺是,嗯,必然的。
了解為什麼專家認為 2025 年是現代保險公司的年份
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!