保險業因為「公平偏見」的做法已經被研究多年。事實上,商業實踐中的不正確數據和偏見在保險業中是眾所周知的。結果不幸的是,邊緣化的族群受到影響。
一些行業專家,包括美國的一位前保險主管,認為歧視將成為人工智慧(AI)監管中最大的問題。這是因為客戶數據可能會揭示過多的負面信息,讓保險公司只能選擇最理想的風險。
對保險公司來說,哪些數據是不正確的數據?
在建立模型時,訓練數據是非常重要的。以壽險中的身體質量指數(BMI)為例。這個例子顯示,缺乏多樣化且具代表性的高品質保險數據,導致了80年來的「理想風險」,最終被美國醫學會批評為內在偏見。
在這個案例中,BMI數據是基於主要由白人男性的身高和體重數據集。最近的研究顯示,BMI並未考慮骨密度和肌肉量等因素,因此對許多人來說,這是一個不準確的風險評估指標。
如同BMI的例子所示,數據的缺乏會造成可獲得性偏見(過度依賴容易獲得的數據),這會導致不良結果。而且,由於數據是人工智慧的燃料,如果用錯誤的數據餵養AI系統,將會導致不良結果。
什麼是算法,為什麼它們重要?
AI算法是一系列逐步的指令,旨在執行特定任務或解決特定問題。合成數據生成(創建合成數據)使用AI算法,例如機器學習算法和神經網絡。
偏見:四個字母的詞
歷史上,保險公司使用郵政編碼或區域代碼來計算保險費。然而,這些看似無害的變數可能成為敏感數據的替代品,例如種族、性別或宗教。這些變數可能隱藏偏見。
想想2017年在芝加哥的Propublica報導。這篇報導關注汽車保險費的差異,其中郵政編碼被用作確定費率的主要數據點。後來的研究顯示,住在少數族裔郵政編碼區域的人支付的保險費更高,當考慮到年齡、保險範圍、性別和索賠歷史等因素時。
在最明顯的例子中,當更換郵政編碼時,保險費的差異在由50%以上的少數族裔組成的社區中高達300%以上。這在34家被引用的公司中,每一家都是如此。
如果不評估和緩解這樣的偏見,脆弱的族群將會被進一步邊緣化。人工智慧只會加劇不平等。
AI和可信度:促進AI技能、包容性貢獻和可證實的可信度的努力已達到最高政府層級。
生成式AI的角色
大多數生成式AI(GenAI)的商業案例包含大型語言模型(LLM)。但另一種GenAI——合成數據,對於處理隱私和公平等數據問題特別有用。合成數據使模型開發者不必依賴數據遮罩來保護敏感個人數據。聽聽這些組織怎麼說:
太好了,簡直不可能?不,根本不是。
合成數據在現實世界的例子
在2022年,SAS與Syntho和Dutch AI Coalition合作,展示了合成數據提供的結果比匿名數據更可靠,同時保留了進行更高級分析所需的深層統計模式。
這樣的進展,加上對隱私保護的日益關注,讓IDC預測到2027年,40%的保險公司在整個保險價值鏈中使用的AI算法將會使用合成數據,以確保系統的公平性並遵守規範。
合成數據在保險中的應用:神聖的聖杯還是AI的空中樓閣?
合成數據不會單獨治癒所有傷口。請記住,您仍然需要原始數據來創建合成數據。因此,原始數據中仍可能存在偏見。
任何關於安全使用AI的對話,包括GenAI,都必須面對幾個真相:
偏見創造不平等。
所有模型都包含偏見。
偏見可以減少,但無法消除。
為了在這個領域中定位自己為領導者,組織應該發展自己的可靠AI原則。他們還應該:
促進數據能力和數據驅動決策的文化。
讓員工能夠指出意外的AI風險。
將數據倫理的守則作為企業的一部分。
最近,SAS主辦了一個合成數據的保險項目,一家大型保險公司實驗了合成數據和信用評分。實驗的結果令人鼓舞。隨後的討論也突顯了使用信用和其他影響保費評估的因素的一些不光彩的事實。例如:
多項研究確認,少數族裔和女性駕駛者支付的汽車保險費更高。
駕駛歷史可能受到警方的偏見影響。
通過智能設備追蹤駕駛行為可能會因社區間的道路條件而產生偏差。
閱讀眾議院金融服務委員會關於汽車保險實踐的詳細報告。
合成數據在保險行業的未來是什麼?
保險公司可以用許多方法來使用GenAI。
保險公司可以利用生成式AI模型來制定不同的情境,然後主動識別風險並預測結果。GenAI可以為定價和保險範圍的決策提供資訊。它還可以自動化索賠處理,以幫助降低成本並改善客戶體驗(和滿意度)。它還可以用來更好地識別詐騙,並向客戶提供針對性的風險預防建議,以減少損失的可能性。
合成數據是打破保險行業中偏見循環的關鍵。
與其關注AI的潛在負面影響,保險界應該提出正確的問題,並專注於用於生成合成數據的數據質量。這樣,我們可以保護隱私,顯著減少偏見,同時釋放生成式AI的巨大價值。
獲得SAS Data Maker的私人預覽——一個幾乎不需要代碼的用戶界面,能快速擴展或生成數據。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!