随着经济社会的发展与科学技术的进步,人工智能已经被广泛应用于工作生活的各个领域。各国纷纷将人工智能纳入国家战略,期待其为经济发展提供新的增长点与动能。特别是2022年ChatGPT问世,向世界展现了人工智能巨大的发展潜力与应用前景。但同时,人工智能技术也可能带来系统性歧视、数据和隐私权的侵犯,以及信息茧房等问题。为推动技术以人为本,有效应对潜在风险,各国开始立足于自身的技术优势与资源禀赋,采用不同的人工智能治理与监管路径。
请点击“阅读原文”,或扫描上方二维码获取完整报告。
根据毕马威收集的108篇全球人工智能监管文献分析,国际人工智能立法较为活跃的国家与地区有欧盟、美国、英国、中国、新加坡以及香港等。各区域/国家普遍采取了促进创新,以人为本,以风险为导向的原则来实施或推进人工智能监管,具有强制约束力的监管规则较少,仅占17.6%(且一半为美国州级的立法),多数采取了原则、伦理、指南、讨论文件及报告等更为软性的形式。
从金融领域来看,目前金融监管机构对于人工智能监管的立法整体并不活跃,各区域/国家金融监管部门主要根据整体性的人工智能监管政策与要求,在各自职能领域针对其应用进行规范。但随着上位法及人工智能专门法规的陆续出台,金融监管机构亦在酝酿金融领域的人工智能监管要求。
国际组织
01
立法特点及进程
国际组织较早就开始了关于人工智能的探讨,从已发布文件看,均为不具有强制约束力的原则、伦理建议、倡议宣言等,旨在推动相关方以人为本,以负责任的方式设计、开发和应用人工智能。相关内容为不同地区、国家的人工智能立法提供了有力支持与丰富借鉴,包括标准定义、原则导向、伦理规范、工具方法等。
2019年,世界经济合作组织与二十国集团先后推出了《人工智能原则》,但并不具有约束力。2021年,联合国教科文组织发布《人工智能伦理问题建议书》,对人工智能涉及的伦理问题进行了深入探讨,并提供了评估工具与政府行动建议。2023年,七国集团领导人发布《就广岛人工智能进程的联合声明》,并配套推出了指导原则与行为准则。2023年11月,首届全球人工智能(AI)安全峰会上,包括中国、美国、欧盟在内的 28 个国家,签署了《布莱切利 AI 宣言》,这也是是全球第一份针对人工智能的国际性声明。
02
金融领域人工智能监管与影响
国际清算银行、国际证券事务监察委员会组织等国际组织一直在积极推进金融领域人工智能研究,自2021年起陆续发布研究报告,主题覆盖市场中介机构和资产管理公司对人工智能和机器学习的应用,人工智能在中央银行的应用,中央银行的生成式人工智能与网络安全,人工智能如何重塑金融业等,聚焦于人工智能在金融业的运用现状,机会与挑战,以及蕴含风险的探讨,并未推出具有遵循意义或操作指导的治理原则、风险框架、指引等。
欧盟
01
立法特点及进程
欧盟自2016年起就不断探索对人工智能技术应用的监管体系构建,其以欧洲整体层面为视角,致力于构建协调一致、适合欧洲发展的人工智能治理体系。目前其人工智能监管体系较为完善,已颁布的文件虽然数量不多,但其内容全面覆盖规划蓝图、监管立法、原则伦理、治理框架、指引指南等类型。同时,欧盟积极参与国际社会人工智能监管规则的制定,其推出的《欧盟人工智能法案》为全球首部人工智能领域的全面监管法规,《人工智能与人权、民主和法治框架公约》为全球首个关于负责任地使用人工智能的具有法律约束力的国际条约,具有较强的国际影响力。
欧盟监管的政策重点是,以基本人权为底层逻辑,侧重于保障个人权利。以数据安全为阵地延伸,通过人工智能使用数据与数据应用场景划分其风险等级。其治理模式是与风险相匹配的分层治理。监管机制是采取分级监管、多种监管,并实行高额的行政处罚,且将公私机构一起纳入监管范围。从国际竞争的视角来看,欧盟一方面利用自身国际影响力,积极拟定并输出伦理指南、全面监管法案、国际公约等,发挥制度优势影响国际层面的人工智能治理与监管。另一方面以欧盟统一市场为基础,延伸向域外乃至全球供应链相关方施加影响力。
02
金融领域人工智能监管与影响
目前欧洲银行管理局、欧洲保险与职业养老金局等已发布的监管规则,以及德国、法国、卢森堡、荷兰等国家发布的适用于本国的治理框架、总体原则等,基本与欧盟通用人工智能监管要求保持一致。此外,欧盟金融监管机构与各国监管机构还发布了多项人工智能相关的专题研究报告。针对《法案》与《框架公约》后金融领域的人工智能监管职责,欧盟国家可将其分配给人工智能监管机构或现有的国家金融监管机构。与此同时,作为欧洲重要金融监管机构,欧洲央行在监管《法案》的要求方面没有设置角色,但将继续从审慎的角度审查信贷模型。
从影响来看,依据《法案》的风险分级,部分金融行业的人工智能应用被划分为高风险,例如银行的人工智能信用评分系统,保险领域为健康或人寿保险单定价的人工智能系统等。高风险人工智能必须满足高标准的稳健性和准确性,在强大的风险管理框架内运行,并确保人工监督和对其输出信息的正确理解。这些要求将适用于《法案》生效两年后部署的新系统,为金融机构履行合规义务保留了窗口期。而依据《法案》与《框架公约》的强制性要求,金融机构应用人工智能还需建设相应的治理架构、持续的风险评估与管理流程,并配备岗位与专家。
英国
01
立法特点及进程
英国在人工智能监管路径设计方面主张平衡创新与发展,整体采用了一种政府引领,以部门为主导、有利于创新的做法来实施人工智能监管;通过促进相关部门不断审视并检讨原则与目标的实现情况,用较低成本的方式达成整体人工智能治理与监管目标,并促进公众的理解与信任。英国采用的监管方法比较温和,不主张仓促推出立法与监管规范,文件多以软性的规划、框架、指南等形式颁布。同时对人工智能的发展变化保持密切关注,并将持续实施相关调研与研究,以保持对风险的敏锐感知与及时响应。
此外,英国高度重视并积极参与国际标准的制定,并将推广促进有利于英国发展的国际标准作为降低合规成本,促进国家竞争力的有效手段。在最新发布的《科学技术框架》,英国将成为国际治理优胜者与领导者列入拟于2030年实现的战略目标。
02
金融领域人工智能监管与影响
针对2023年3月的《促进创新的人工智能监管方法》白皮书,英国政府于2024年2月发布了回应。英格兰银行、审慎管理局、金融行为监管局等监管机构被要求在4月底前发布自己的人工智能监管计划。总体而言,他们欢迎政府拟定的各部门引导,鼓励创新的方法,但未提出新的监管规则,他们均认为已经设立了合适的监管框架来支撑政府拟定的原则。现有框架仍然适用于解决人工智能带来的风险,因为这些风险“并非唯一”。具体而言,他们计划依靠商业原则、消费者责任、运营弹性规则手册、模型风险管理原则以及高级管理人员和认证制度(SM&CR)等已有工具。这些工具不仅会起到护栏作用,而且由于许多工具都以结果为中心,监管机构认为这将是相称的,并允许金融机构以安全的方式灵活适应和创新。
美国
01
立法特点及进程
美国的人工智能监管立法具有州领跑联邦政府的特点,一批州级的法律规范已率先落地,联邦部门的立法在政府执行令的统一引导下逐步推进,但尚未正式推出具有强制遵循意义的法律规范。2022年10月的《人工智能权利法案蓝图》奠定了基本的伦理考虑。2023年1月,美国标准与技术研究院发布自愿性的《人工智能风险管理框架》。2023年11月,《关于安全、可靠和值得信赖的人工智能的行政命令》标志着向监管监督的转变,该命令授权25个以上的机构解决与人工智能相关的危害,包括安全、隐私和歧视。2024年5月,美国标准与技术研究院发布了两份生成式人工智能(GenAI)的指南草稿, 并积极酝酿新的框架与指南。
从美国监管政策的重点来看,主要是以促进产业发展为主,在治理时侧重于维护公平和保护隐私。其治理模式是风险评估与风险管理框架。监管机制不是单一的依赖于行政监管,而是强调政府部门与私营部门的协作。并且,为了推动人工智能技术的发展,主张企业进行自我监管。
02
金融领域人工智能监管与影响
美国金融领域的人工智能监管规则较少,具有强制性遵循意义的要求来自于美国消费者金融保护局发布的《关于复杂算法不当行动要求的通知》与《贷款人使用人工智能拒绝信贷的指南》,旨在聚焦具体应用场景,保护金融消费者公平,避免算法与人工智能技术带来的系统性歧视。美国财政部、证券交易委员会、联邦贸易委员会、商务部、商品期货交易委员会等金融监管机构发布的文件主要形式为征求意见(RFC)、拟议规则预先通知(ANPR)、拟议规则通知(NPR)、信息请求(RFI)、研究报告等,主题涉及商业监控与数据安全,人工智能运用于鉴证与信托,自动化估值模型,使用预测数据分析的利益冲突等,相关内容尚处于公众探讨与意见征询阶段,对金融机构暂不具备约束力。
中国
01
立法特点及进程
中国较早就开始实施人工智能规划及治理活动,虽然已出台的文件数量不多,但种类较为丰富,已涵盖发展规划、监管规则、治理原则、伦理规范、倡议与宣言等。同时,中国也积极参与国际社会的人工智能监管治理,推动人工智能产业发展并构建自身的国际影响力。
2017年7月国务院发布《新一代人工智能发展规划》,作出了制定促进人工智能发展的法律法规和伦理规范,完善支持人工智能发展的重点政策,建立人工智能技术标准和知识产权体系,建立人工智能安全监管和评估体系等整体部署,并明确由国家科技体制改革和创新体系建设领导小组牵头统筹协调,推动人工智能相关法律法规建设。承接规划部署,国家新一代人工智能治理专业委员会成立,并陆续于2019年6月和2021年9月推出了《新一代人工智能治理原则——发展负责任的人工智能》与《新一代人工智能伦理规范》。中国亦积极参与国际人工智能治理,于2023年发布了《全球人工智能治理倡议》,并在2024年7月召开的2024世界人工智能大会暨人工智能全球治理高级别会议上,发布了《人工智能全球治理上海宣言》。2024年9月,全国网络安全标准化技术委员会发布了《人工智能安全治理框架》1.0版,内容包括人工智能安全治理原则、人工智能安全治理框架构成、人工智能安全风险分类、技术应对措施、综合治理措施、人工智能安全开发应用指引等六部分,是贯彻落实《全球人工智能治理倡议》的重要文件,为促进人工智能健康发展和规范应用,提供了基础性、框架性的技术指南。
02
金融领域人工智能监管与影响
目前中国尚未出台金融领域人工智能监管的专门法律法规或行业自律规范,但在消费者保护领域,已有算法规制、互联网广告等关联适用要求。随着中国人工智能技术的快速发展及应用转化,金融行业已广泛将人工智能技术投入于智能营销、智慧投顾、投诉处理、制度审阅等领域。建议金融机构主动调研行业市场及机构内部的人工智能应用现状,并结合风险控制目标,前瞻性地将人工智能治理目标与风险管控融入日常管理流程中。
联系我们
Contact us
李砾
金融行业研究中心合伙人
毕马威中国
raymond.li@kpmg.com
靳蓓
金融行业研究中心副总监
毕马威中国
catherine.jin@kpmg.com
赵一诺
金融行业研究中心副总监
毕马威中国
nicholas.y.zhao@kpmg.com
©2024毕马威华振会计师事务所(特殊普通合伙)、毕马威企业咨询(中国)有限公司及毕马威会计师事务所,均是与毕马威国际有限公司(英国私营担保有限公司)相关联的独立成员所全球组织中的成员。毕马威国际及其关联实体不提供任何客户服务。各成员所均为各自独立的法律主体,其对自身描述亦是如此。毕马威华振会计师事务所(特殊普通合伙)——中国合伙制会计师事务所;毕马威企业咨询(中国)有限公司——中国有限责任公司;毕马威会计师事务所——香港合伙制事务所。版权所有,不得转载。毕马威的名称和标识均属于毕马威国际的商标或注册商标。