隨著人工智慧(AI)失敗的風險日益增加,主要保險公司正積極尋求將其對 AI 相關索賠的責任排除在外。根據《金融時報》的報導,AIG、WR Berkley 和 Great American 等保險公司已向監管機構申請新的政策排除條款,這將使他們能夠拒絕與 AI 系統(包括聊天機器人和代理人)的使用或整合相關的索賠。
該舉動正逢各行各業加速採用生成性工具的時期,這個轉變已經導致了一些昂貴的錯誤。例如,Google因其AI概覽功能錯誤地聲稱一家太陽能公司被州檢察長起訴而面臨1.1億美元的誹謗訴訟;而加拿大航空則被要求承認其客戶服務聊天機器人虛構的折扣。此外,英國工程公司Arup在一次視訊通話詐騙中因員工被數位複製的高層欺騙,而損失了2,000萬英鎊。
這些事件使得保險公司更難量化責任的起止點。Mosaic Insurance告訴《金融時報》,大型語言模型的輸出仍然過於不可預測,無法進行傳統的承保,並將其形容為「黑箱」。即使是專門為AI增強軟體提供保險的Mosaic,也拒絕承保來自像ChatGPT這樣的LLM的風險。
做為一種變通方案,WR Berkley的潛在排除條款將禁止與「任何實際或聲稱的使用」AI相關的索賠,即使該技術僅在產品或工作流程中占有微小部分。AIG告訴監管機構,它「沒有計畫立即實施」其提議的排除條款,但希望在索賠的頻率和規模增加時能夠使用這一選項。
問題不僅在於單一損失的嚴重性,還在於由單一基礎模型或供應商引發的廣泛、同時的損害威脅。Aon的網路部門負責人Kevin Kalinich表示,行業可以承受來自某一公司使用的失誤代理人造成的4億或5億美元的損失,但無法承受一個上游故障同時產生千起損失的情況,這被他形容為「系統性、相關、聚合的風險」。
一些保險公司已透過政策附加條款朝著部分清晰邁進。QBE推出了一項擴展的附加條款,為歐盟AI法案下的罰款提供有限的保障,最高限額為保險限額的2.5%。Chubb則同意承保某些AI相關事件,同時排除任何可能影響「廣泛」事件的情況。經紀人表示,這些附加條款必須仔細閱讀,因為某些條款在看似提供新保障的同時,實際上減少了保護。
隨著監管機構和保險公司重新調整其立場,企業可能會發現,部署AI的風險現在比他們預期的更重,可能會更重地落在他們自己的資產負債表上。