英国央行副行长Sarah Breeden女士于香港金融管理局-国际清算银行(BIS)联席会议“新兴技术为金融生态系统带来的机遇与挑战”上发表演讲,香港,2024 年 10 月 31 日。
本演讲中表达的观点为演讲者的观点,而不是国际清算银行的观点。
今天,我将讨论人工智能(尤其是生成式人工智能)日益强大的力量和应用对金融稳定意味着什么,以及各国央行和监管机构应如何应对。
接下来我将从这样一个前提开始:生成式人工智能模型与其他建模技术相比具有独特的特点。它们可以基于广泛的数据自主快速地学习和发展,其输出结果并不总是可以解释或说明的,其目标可能既不完全明确,也不完全符合社会的最终目标。
人工智能有望为金融部门和经济其他部门的生产力和增长带来巨大潜在利益。但为了让金融部门利用这些好处,我们作为金融监管机构,必须制定政策框架,以管理随之而来的任何金融稳定风险。经济稳定是增长和繁荣的基础。让人工智能破坏经济稳定将是自欺欺人。
此外,尽管对于人工智能的应用范围和速度存在很大的不确定性,但我们不希望陷入两难境地:一方面,让强大的新技术威胁金融稳定;另一方面,阻止其使用并失去增长和创新——仅仅是因为我们没有确保其安全应用的政策框架。
金融服务行业正处于采用 生成式人工智能的早期阶段。但展望未来,我认为我们应该关注两个问题:
·首先,在微观审慎层面(我们力求确保各个公司的安全和稳健),随着模型变得越来越强大,采用率越来越高,各国央行和金融监管机构应继续确保与技术无关的监管框架足以减轻人工智能带来的金融稳定风险。我们需要特别关注的是,确保金融公司的管理者能够理解和管理他们的人工智能模型在自主发展时所做的事情。
·其次,我们应该意识到可能需要采取宏观审慎干预措施来支持整个金融体系的稳定。如果金融体系越来越依赖共享的人工智能技术和基础设施系统,我们应该不断审查我们的监管范围。我们的压力测试框架可以随着时间的推移而不断发展,以评估金融公司业务“前线”使用的人工智能模型是否能够以难以预测的方式相互作用——例如,当用于交易时,我们是否会看到复杂的操纵形式或正常时期更拥挤的交易,从而加剧压力下的市场波动。
需要明确的是,我认为英格兰银行尚未达到需要改变与技术无关的微观审慎方法或宏观审慎政策的程度。但人工智能的力量和使用正在快速增长,我们不能自满。我们从过去经济其他部门技术创新的经验中知道,一旦使用达到系统规模,就很难事后解决风险。
我也认识到,围绕人工智能的许多问题可能会产生更广泛的影响,各国政府将决定如何在整个经济中最好地管理这些问题。但考虑到我们对金融稳定的责任,我们需要在政府采取任何更广泛的行动之前,考虑金融系统可能需要什么。
为此,我们将成立一个由私营部门和人工智能专家组成的人工智能联盟,帮助我们更深入地了解人工智能的潜在优势以及企业为管理可能构成金融稳定风险的风险而采取的不同方法。我们 将考虑如何广泛传播业内最佳实践,以及是否需要进一步的监管指导方针和门槛。我们的金融政策委员会 (FPC) 将发布对人工智能对金融稳定影响的评估,并阐述其将如何监测这些风险的未来演变。在此过程中,我们将与英国金融行为监管局 (FCA)、政府和国际同行合作,支持人工智能的安全采用,这是我们为利用人工智能优势促进增长所能做出的最大贡献。
人工智能在金融服务中的应用
我今天发表讲话的背景当然是人工智能在金融服务领域的应用越来越广泛。
过去五年来,英国央行和金融行为监管局一直在定期调查英国金融服务公司如何使用人工智能和机器学习。最新的调查是在今年早些时候进行的,调查 对象包括近 120 家公司,包括银行、保险公司、资产管理公司、非银行贷款机构和金融市场基础设施。我们将很快公布全部结果。
但为了预览一些头条新闻,我们发现 75% 的受访公司已经在运营中使用某种形式的人工智能,包括所有受访的英国和国际大型银行、保险公司和资产管理公司。这一比例高于 2022 年的 53%。
所有用例中有 17% 使用基础模型,包括 OpenAI 的 GPT4 等大型语言模型,它们将先进的机器学习(所谓的深度学习)应用于大量数据,以便可以应用于广泛的用例。
从金融稳定的角度来看,人工智能的一些最普遍的早期用例风险相当低。41% 的受访者正在使用人工智能来优化内部流程,而 26% 的受访者正在使用人工智能来增强客户支持,从而帮助提高效率和生产力。
但许多公司也在使用人工智能来减轻它们面临的外部风险,包括网络攻击(37%)、欺诈(33%)和洗钱(20%)。例如,支付系统长期以来一直使用机器学习来自动阻止可疑付款——一家信用卡组织今年正在使用一个基于据称一万亿个数据点训练的基础模型来升级其欺诈检测系统。
从金融稳定角度来看,潜在的更重要的用例正在出现。16% 的受访者正在使用人工智能进行信用风险评估,另有 19% 的受访者计划在未来三年内这样做。同时,11% 的受访者正在将其用于算法交易,另有 9% 的受访者计划在未来三年内这样做。4% 的公司已经在使用人工智能进行资本管理,另有 10% 的受访者计划在未来三年内使用它。
人工智能与之前的建模技术有何不同?
现在我想花点时间讨论一下人工智能模型的五个特点,这些特点结合起来使得人工智能模型值得特别考虑,以及我为什么认为这些特点对金融稳定很重要。
首先,人工智能模型是动态的。它们将输入数据转化为输出结果的方式会随着从新数据中学习而自动更新。因此,随着时间的推移,它们的行为方式可能会与最初的意图不一致。
在金融体系的背景下,用于交易的人工智能模型以赚钱为目标,它可以通过学习主动放大外部冲击对市场价格的价值,或有利可图地与另一个人工智能模型自主勾结的价值,来进化以实现这一目标。
AI 模型的第二个特殊挑战是它们可能缺乏可解释性。这些模型通常很复杂,输入和输出之间的关系不断演变,正如我刚才所描述的那样——所有这些都以相当快的处理速度发生。
同样,在金融体系的背景下,这也带来了挑战。如果人工智能模型将某些交易归类为欺诈或低风险,或将某些潜在借款人归类为信用良好或信用不良——我们无法轻易解释的方式——我们如何知道这是模型错误还是在数据中发现了传统分析无法发现的重要模式?我们如何判断人工智能模型告诉我们次级抵押贷款风险低是否错误?
最新 的AI 模型面临的第三个特殊挑战是它们所训练的数据范围,特别是基础模型,它们从来自不同来源的大量大型数据集中学习,其规模与传统模型完全不同。在这种规模下,考虑到我刚才谈到的可解释性挑战,要知道我们是否通过低质量或有偏见的训练数据将错误规范引入 AI 模型显然极具挑战性。
第四,基础模型似乎特别容易导致用户聚集在少数几个通用模型周围。设计和运行此类模型所需的智力资本、计算能力和数据使其成为一项非常昂贵的工作——因此它们的开发似乎可能趋向于寡头垄断。事实上,在我们今年的调查中,公司使用的第三方 AI 模型中有 44% 来自前三大模型提供商,而 2022 年进行的上一次调查中这一比例为 18%——在 ChatGPT 推出之前,人们对基础模型和生成式 AI 的兴趣有所增加。
在我看来,我们可能会看到通用基础模型得到广泛使用,下游应用都依赖于此,不仅在整个金融系统,而且在整个经济和跨境领域中。这带来了宏观脆弱性:基础模型或支持该模型的云提供商发生事故可能会对整个系统产生影响。或者,通用模型可能会增加市场参与者对冲击做出相关反应的风险,从而加剧压力。
第五,也是最后一点,人工智能模型是自主的——它们可以自动调整将输入转换为输出的方式,对于生成式人工智能,它们可以以文本、图像和视频的形式生成丰富的输出。这意味着,从理论上讲,这些模型可以用来确定结果并做出决策,而无需高级管理人员充分了解这些决策的理由并直接对这些决策负责。在我们最新的调查中,超过一半(55%)的人工智能用例都具有一定程度的自动化决策,半自主决策(在决策循环的某个阶段有人为干预)和完全自动化决策的情况大约各占一半。这显然对金融公司的管理和治理以及监管者提出了挑战。虽然一个人根据信息做出决策的方式也可能很复杂、不透明且难以解释,但一个人可以被追究责任。
人工智能对于微观审慎监管意味着什么?
尽管金融监管机构(包括英国)具有这些独特特征,但在应对风险时,它们往往采用与技术无关的方法。换言之,我们期望公司无论使用何种技术,都能满足我们现有的数据管理、模型风险管理、治理和运营弹性(包括对第三方的依赖)规则。
这当然是一个明智的起点。技术中立的方法可以为监管框架提供面向未来的保障,因为它专注于重要的事情(结果),而不需要监管机构完全预见到技术将如何发展以实现这些结果。
到目前为止,技术中立的方法似乎对人工智能和机器学习非常有效。企业在运营中部署人工智能的方式一直非常谨慎。在我们与他们的接触中,包括我们在 2022 年与英国金融行为监管局发布的讨论文件,许多受访者认为,英国没有监管障碍阻碍人工智能的安全和责任。这是个好消息。这意味着我们的监管并没有阻碍我之前提到的技术的增长和生产力效益。
然而,随着人工智能模型变得越来越强大,并在更广泛的用例中得到越来越广泛的应用,我们必须不断问自己的问题是,我们是否能够继续依赖现有的监管框架——因为这些框架并不是为考虑具有决策能力的自主、不断发展的模型而建立的。与技术中立的方法是否足以继续降低风险,还是人工智能需要一种略有不同的方法?鉴于人工智能不仅在金融领域,而且在整个经济领域都有应用,我们对金融领域部署的模型的开发期望如何与其他行业部署的模型的开发期望相一致?
这就是我们继续研究人工智能的原因——让我强调一下我们特别热衷于探索的几个领域。
关于模型风险管理,现有的监管框架是否足以确保公司了解其人工智能模型在当前和未来自主发展过程中的作用,并且它们是否能够在必要时对其进行约束?我们讨论文件的受访者强调了我们去年为银行制定的8 项 模型风险管理原则(涵盖一般量化建模,而不仅仅是人工智能)可能不足以确保模型用户完全了解他们在公司内部部署的第三方人工智能模型。人工智能模型的可解释性有限是一个特别关注的焦点。因此,作为监管者,我们需要进一步考虑可解释性在生成人工智能的背景下意味着什么,我们应该期望公司拥有哪些控制权,以及这对我们的监管框架意味着什么。
我们讨论文件的反馈还指出,缺乏关于训练 AI 模型的数据的明确、广泛适用的标准。我们能否采取更多措施来确保公司在高质量、无偏见的输入数据上训练 AI 模型;确保他们能够在合理程度上追踪模型行为如何响应训练数据特定方面的变化;确保他们能够了解模型在哪些方面特别依赖训练数据的某些部分?
最后,关于治理,我们最新调查中发现,只有三分之一的受访者表示自己完全了解他们在公司实施的人工智能技术。当然,从某种程度上来说,没有 100% 了解并不奇怪——这是一项快速发展的技术,需要边做边学。话虽如此,随着公司越来越多地考虑在信用风险评估、资本管理和算法交易等业务影响更大的领域使用人工智能,我们应该期待管理层和董事会进行更严格、更严格的监督和挑战——尤其是考虑到人工智能的自主性、动态性和缺乏可解释性。
我们讨论文件的大多数回复者都认为,实用指南将有助于了解高级管理层应采取哪些“合理措施”来遵守人工智能系统方面的监管要求。现有指南基于人工智能等自主决策技术尚未普及的时代。
讨论文件还提出了一个问题,即对公司高级管理人员的监管期望——高级管理人员和认证制度——是否应该为人工智能分配特定的责任,以激励公司内部对人工智能的部署和监督进行有意义的问责。虽然大多数受访者对此持谨慎态度,但我们应该继续研究如何加强对人工智能的有效治理——包括思考我们可能在什么情况下满足于让人工智能模型做出自动决策,以及在什么情况下(以及在多大程度上)应该有人参与其中。
人工智能对宏观审慎政策意味着什么?
到目前为止,我已经谈论了人工智能的微观审慎方面——个别公司对人工智能的使用如何对其安全性和稳健性以及金融稳定构成风险。
但即使个别公司能够很好地管理微观审慎风险,如果人工智能未能考虑到其行为对金融体系其他部分的影响,它也可能对金融稳定构成风险。维护金融体系安全是英国央行金融政策委员会等宏观审慎政策制定者的重点。事实上,金融政策委员会将于明年年初发布其对人工智能对金融稳定影响的评估,并阐述其将如何监测这些风险的演变。
作为宏观审慎政策制定者,我们一直担心的一个问题是互联性——一家机构的行为会影响其他机构,企业可能成为关键节点,企业可能面临共同的弱点。人工智能既可以增强这种互联性,也可以增加现有互联性水平威胁金融稳定的可能性。
我已经谈过基础 AI 模型的使用如何导致金融部门依赖共享 AI 技术和基础设施系统。如果 AI 模型在金融领域的使用变得更加普遍,那么这些模型可能会依赖于少数提供商进行数据存储、模型计算和部署,以及少数数据聚合进行训练数据。这些服务提供商的中断可能会导致依赖其基础设施的 AI 模型变得不可用或性能不佳。
人工智能还可能增加现有互联互通转变为金融稳定风险的可能性——尤其是通过网络攻击。人工智能当然可以提高金融系统中关键节点的网络防御能力。但它也可能帮助攻击者——例如通过生成式人工智能创建的深度伪造来增加网络钓鱼攻击的复杂性。
人工智能还可能通过其他渠道产生系统性风险后果,特别是如果它们在交易中得到更多应用的话。例如,正如国际货币基金组织最近的《全球金融稳定报告》中指出的那样 此外,人工智能可能会导致市场在压力下加速和波动。
具体而言,多个市场参与者使用相同的人工智能模型并依赖少数人工智能服务提供商进行交易,可能会导致交易行为越来越相关。尤其是在这种拥挤的交易是通过杠杆融资的情况下,导致此类交易策略亏损的冲击可能会通过强制抛售和不利价格变动的反馈回路放大为更严重的市场压力。
事实上,一些人工智能交易模型可能会对这种情况做出反应,试图以某种方式利用其他公司的交易算法和策略中的漏洞,这种方式虽然在个体上是理性的,但对整个金融体系却产生不利影响,即以破坏金融稳定的方式触发或放大价格变动。
还存在全系统行为风险的可能性。如果人工智能决定结果并做出决策,那么几年后,如果这些结果和决策受到法律挑战,需要大规模补救,后果会怎样?
我们的宏观审慎工具库中有一些工具可以用来解决这些问题。
事实上,对通用技术提供商的依赖在英国已经有所体现,正如英国金融政策委员会在 2021 年建议建立关键第三方服务提供商 (CTP) 制度一样。该制度于去年生效,允许英国财政部指定少数第三方,这些第三方提供的服务对多家公司至关重要,而且很难轻易或快速取代这些第三方,接受金融监管机构的直接监管。该制度的动机比人工智能更为普遍,并且承认单个金融公司通过管理自己的第三方关系所能取得的成就是有限的。央行、审慎监管局 (PRA) 和金融行为监管局已经就适用于这些第三方的规则进行了磋商,并正在考虑向财政部推荐哪些第三方进行指定。
尽管如此,CTP 制度旨在解决关键节点发生故障或运营中断的风险。人工智能可能会导致不同类型的依赖,因为这些公司需要确保第三方模型符合与内部开发的模型风险和数据风险管理相同的标准。对于那些在业务中使用第三方开发的最复杂基础模型作为重要用例的公司来说,如果无法了解模型的设计方式和查询模型的能力,那么在实践中这可能很难做到。在适当的时候,根据金融公司对人工智能的使用如何演变(特别是如果它开始以实质性的方式用于交易或核心风险评估),我们可能需要重新考虑监管范围是否充分,以及是否有必要直接对模型提供者本身提出一些要求。
压力测试是另一个可以指出人工智能对金融稳定性造成影响的工具。我们或许可以使用压力测试来了解银行和非银行交易中使用的人工智能模型如何相互作用。我们可以更好地理解反应函数;设法确定目标函数的哪些元素可能导致它们以积极放大冲击和破坏金融稳定的方式发展;并利用这些结果来告知需要干预的地方。
在国际上我们应该做什么?
除了在国内探讨这些问题之外,我们还需要与国际同行一起探讨这些问题。
国际监管界在共同理解新问题和创新方面取得了巨大成功——气候、云计算、加密货币和稳定币只是其中的几个——我们相互学习,并制定了如何应对此类跨境挑战的共同原则。
迄今为止,在政府层面,我们已经看到国际上就人工智能安全的主要问题展开合作,包括通过布莱切利峰会和首尔峰会。
展望未来,国际机构和国家当局继续合作至关重要。这将有助于确保我们有能力监控全球金融体系的人工智能应用,评估我们当前的监管框架是否充分解决漏洞,并考虑在必要时加强这些漏洞的方法。如果坏人试图利用人工智能破坏金融体系,包括通过网络攻击,我们的合作还可以增强我们的集体韧性。我欢迎包括金融稳定理事会、国际证监会组织和七国集团在内的国际组织开展工作,考虑人工智能的影响并建立我们的共同理解。现在制定政策工作可能为时过早,但这部分金融正在迅速发展。我们应该继续共同加深对人工智能的了解,以便如果未来需要指导方针和护栏,我们已做好准备。
结论
人工智能模型具有独特而强大的功能组合。正如我所说,它们基于广泛的数据自主快速地学习和发展,其输出并不总是可以解释或说明的,其目标可能既不完全明确,也不符合社会目标。
即使是专家们,对于人工智能(包括金融领域)的发展程度和速度也意见不一。因此,我们既要谦虚,又要做好准备。虽然我们不会急于采取下意识的政策反应,但我们需要不断审视我们的微观审慎和宏观审慎政策是否足以维持金融稳定。这样,我们才能以安全和可持续的方式利用人工智能对经济增长的巨大好处。
本文来源:https://www.bis.org/
科创金融交流群
银行金融科技交流群
金融科技投资机构群
资管科技(财富科技)交流群
金融科技合作群
人工智能+金融群
区块链+金融群
物联网+金融群
监管科技交流群
保险科技交流群
消费金融交流群
信托科技交流群
资本市场科技交流群
添加微信:DDKJZX5实名审核后邀请进群