本文文字由ChatGPT 4 o生成,生成本文是提示过程,给出指令,角色提示,多角色提示和组合提示,自动生成改写新闻。以及Midjourney Bot生成配图。
美国各州监管机构正在采取行动,规范保险业中人工智能的使用。迄今为止,已有近十几个州以某种形式采用了美国保险监督官协会 (NAIC) 的《保险公司使用人工智能 (AI) 系统示范公告》。我们预计美国许多州也会效仿,制定类似的保险业人工智能使用标准。
NAIC 于 2023 年 12 月采用了该示范公告。自那时起,已有 11 个州几乎完全没有或根本没有采用该公告,其中包括:
阿拉斯加州,于 2024 年 2 月 1 日通过
康涅狄格州,于 2024 年 2 月 26 日通过
伊利诺伊州,于 2024 年 3 月 13 日通过
肯塔基州,2024 年 4 月 16 日通过
马里兰州,于 2024 年 4 月 22 日通过
内华达州,于 2022 年 2 月 23 日通过4
新罕布什尔州,于 2024 年 2 月 20 日通过
宾夕法尼亚州,于 2024 年 4 月 6 日通过
罗德岛州,2025 年 3 月 15 日通过
佛蒙特州,于 2024 年 3 月 12 日通过
华盛顿州,2024 年 4 月 22 日通过
担任 NAIC 委员会主席的马里兰州保险专员 Kathleen A. Birrane 指出,“这一举措代表着一种协作努力,旨在为州保险部门设定明确的期望,即保险公司对人工智能的利用,平衡创新潜力与解决独特风险的必要性”,并解释说,该示范公告“为保护消费者、促进公平和维护行业最高诚信标准提供了坚实的基础。”
NAIC 模型公告具有相当强的规范性,概述了制定 AI 法律和行业指导的最佳实践原则,包括:
需要编写 AI 程序
保险公司必须制定、实施并维护一个书面计划,以负责任地使用人工智能系统,制定或支持与受监管的保险实践相关的决策,包括减轻不利的消费者结果并解决治理、风险管理和内部审计职能。
强大的治理、风险管理控制、内部审计功能以及书面政策和程序是人工智能治理计划的核心要素,用于减轻风险和管理人工智能系统生命周期每个阶段的监督。
制定书面计划:就像足球队有训练计划一样,你需要有一个详细的书面计划,说明AI将如何被使用,以及它将如何帮助做出保险决策。
减轻不利结果:这个计划还需要确保AI的使用不会对消费者造成不利影响,比如误判风险或错误地拒绝索赔。
强大的治理:你的公司需要有一个强大的管理系统,就像学校的校长一样,确保AI的使用符合法律和道德标准。
风险管理控制:你需要有一套方法来识别和控制使用AI可能带来的风险,就像天气预报员预测天气以避免灾害一样。
内部审计功能:你的公司还需要定期检查AI系统的工作情况,确保一切正常运行,这就像家庭医生定期检查你的健康状况。
书面政策和程序:最后,你需要有一套书面的政策和程序,详细说明如何监督AI系统的每个阶段,从开始使用到最终退役
透明、公平、负责的清晰治理框架
保险公司应具有明确的治理问责结构,由来自适当学科和部门(例如业务部门、产品专家、精算、数据科学和分析、承保、索赔、合规和法律)的代表组成,每个部门都有各自的责任和权限范围、指挥链和决策层级。
透明性
决策过程公开:所有员工都能看到公司是如何做出决策的,包括AI系统的使用和监管。
信息共享:公司内部的信息和数据是开放的,员工可以访问他们需要的信息来完成工作。
公平性
平等的机会:所有员工都有平等的机会参与决策和职业发展。
公正的评价:员工的表现和贡献都是根据同样的标准来评价的。
负责性
明确的职责分配:每个部门和员工都清楚自己的职责和权限范围。
责任追究:如果出现问题,能够追踪到具体的责任人,并采取措施纠正。
清晰的治理框架
治理结构:公司有一个明确的治理结构,包括董事会、高级管理层和各个部门的负责人。
问责机制:有一个清晰的问责机制,确保每个决策和行动都有人负责。
流程和政策:公司有一套明确的流程和政策,指导员工如何使用AI系统,如何处理数据,以及如何遵守法规。
消费者须知
消费者应该收到人工智能系统正在使用的通知,并应该根据人工智能系统部署的保险生命周期阶段获取适当级别的信息。
让我们用一个简单的例子来:
想象一下,你是一位汽车保险的客户,你刚刚购买了一辆新车,并且联系了你的保险公司“X保险”来更新你的保险政策。在这个过程中,“X保险”使用了人工智能(AI)系统来评估你的车辆风险、确定保险费率,并最终生成你的保险报价。
消费者须知的关键点:
1. 使用通知:首先,当你联系“X保险”时,他们应该告诉你,他们正在使用AI系统来处理你的保险申请。这就像是当你去餐厅点餐时,服务员告诉你他们正在使用一个新系统来下单。
2. 信息透明度:接着,根据AI系统在保险生命周期中的使用阶段,你应该获得相应级别的信息。这可以分为几个阶段:
申请阶段:当提交保险申请时,保险公司应该解释AI系统如何评估风险,比如它考虑了哪些因素(如驾驶历史、车辆类型等)来确定你的保险费率。
- 决策阶段:如果AI系统决定了你的保险报价,保险公司应该告诉你这个决定是如何做出的,比如AI系统是否考虑了你的信用评分或是以往的理赔记录。
- 服务阶段:在保险期间,如果AI系统用于监控你的驾驶行为(如通过车载设备),保险公司应该告诉你这些数据是如何被收集和使用的,以及它们如何影响你的保险费率或政策。
3. 适当级别的信息:保险公司提供的这些信息应该是易于理解的,避免使用过多的技术术语,确保消费者能够明白AI系统是如何影响他们的保险体验的。
例子:
假设“X保险”使用了一个AI系统来分析你的驾驶数据,并且基于这些数据,他们给你提供了一个个性化的保险报价。在这种情况下,保险公司应该:
通知你他们正在使用AI系统来处理你的申请。
解释AI系统如何分析你的驾驶习惯,比如它可能考虑了你的急刹车频率、行驶速度和行驶时间。
告诉你这个AI系统如何根据你的驾驶数据来确定你的保险费率,比如如果你的驾驶数据表明你是一个安全的驾驶员,你可能会有资格获得一个较低的费率。
通过这种方式,消费者就能清楚地知道AI系统是如何被使用的,以及它是如何影响他们的保险政策的。这不仅提高了透明度,也帮助消费者更好地理解他们的保险选择。
风险管理和内部控制
人工智能计划中的控制和流程应反映并与保险公司对人工智能系统给消费者造成的风险程度和性质的评估相称,考虑:
(1)使用人工智能系统做出、告知或支持的决策的性质;
(2)使用人工智能系统对消费者造成的潜在伤害的类型和程度;
(3)人类参与最终决策过程的程度;
(4)结果对受影响消费者的透明度和可解释性;
(5)保险公司使用或依赖第三方数据、预测模型和人工智能系统的程度和范围。
控制措施应解决:
(1)开发、采用或获取人工智能系统的监督和批准流程,以及考虑因素和控制措施的确定;
(2)数据实践和问责,包括数据货币、谱系、质量、完整性、偏见、最小化和适用性;
(3)验证、测试和重新测试,以评估实施后输出的泛化;
(4)非公开信息的隐私;
(5)数据和记录保留。
第三方供应商管理
保险公司负责供应商尽职调查,包括评估获取、使用和依赖以下各项流程:
(1) 第三方数据用于开发人工智能系统和
(2) 第三方开发的人工智能系统。保险公司应在第三方协议中执行合同条款,允许审计权并在适当情况下要求配合监管调查。监管机构可能会要求保险公司提供有关供应商尽职调查的信息,作为监管监督的一部分。
为人工智能计划的监管调查做好准备
示范公告指出,保险公司可能会被问及有关人工智能开发和使用的问题(包括文件制作),包括在调查或市场行为行动中的治理、风险管理和内部控制。
让我们用一个简单的比喻来解释这段话:
为人工智能计划的监管调查做好准备:
监管机构的角色:在这个比喻中,监管机构就像是海港的港务局,他们负责确保所有船只的安全和合规。他们可能会不定期地检查你的船只,确保你使用的新技术(AI系统)是安全的,并且符合所有的航海规则。
监管调查:港务局可能会要求你提供关于你的AI系统的详细信息,包括它是如何工作的,你是如何确保它不会对海洋环境造成损害的,以及它是如何帮助提高航行效率的。这就像是保险公司需要准备回答监管机构有关AI系统的开发和使用的问题。
文件制作:你可能需要准备一些文件,来证明你的AI系统是经过严格测试的,并且有明确的使用指南和安全措施。这就像是保险公司需要准备相关文件,以备监管机构在调查或市场行为行动中检查。
不同州的不同要求:如果你的船只在多个海港之间航行,每个海港可能都有自己的规则和要求。这就意味着,如果你的保险公司在多个州运营,你需要为每个州可能不同的AI监管要求做好准备。
不断变化的要求:随着时间的推移,港务局可能会更新他们的规则,以适应新的航海技术和挑战。同样,随着AI技术的发展,监管机构也可能更新他们的要求和指导原则。因此,保险公司需要持续关注这些变化,并及时调整自己的AI系统和操作流程。
Quarles正在继续跟踪 NAIC 示范公告的采用情况。虽然许多州都在采用该公告,但请记住,某些州在公告发布前就已经制定了现有的 AI 监管方法。在多个州运营的保险公司应该为不同的要求做好准备,随着 AI 法律法规的不断发展,所有保险公司都应该为不断变化的要求做好准备。