金融领域的人工智能技术——迎接风险与挑战
财富
财经
2025-01-11 17:00
北京
2024年12月,法国央行第一副行长Denis Beau在巴黎金融中心人工智能专题活动中发表了题为“Mastering AI In The Financial Sector - Let Us Collectively Rise The Challenge”的致辞,该致辞对金融领域的人工智能技术带来的风险与挑战进行了探讨。中国人民大学金融科技研究所(微信ID:ruc_fintech)对该致辞进行了编译。
来源 | Paris Financial Centre Event Devoted to Artificial Intelligence
首先,我要感谢主办方邀请我参加此次巴黎金融中心人工智能(AI)专题活动:这让我有机会继续就这一金融行业的重要议题,与我们在法国央行和法国审慎监管与处置局(ACPR)的金融界合作伙伴展开对话。关于现状,我将简要说明:人工智能是推动当前金融领域变革的最强大力量之一。随着生成式人工智能的出现,其应用步伐不断加快,使得在生产力、客户互动、合规管理等方面的机遇更加触手可及,且有目共睹。作为监管机构,同时作为这些新技术的使用者,我们每天都能目睹这一现象的速度和潜力。当然,这些技术也可能给所有金融体系参与者以及整个系统的稳定性带来诸多风险。妥善管理这些风险至关重要:接下来的圆桌讨论将揭示这些风险及其带来的运营挑战。我现在仅提及其中一项风险,但它绝非最不重要的:网络风险。在我看来,它很好地诠释了我们正面临的复杂问题。人工智能加剧了网络风险,尤其是因为攻击者利用它来提高攻击效力;人工智能本身也存在特定的脆弱性(如数据投毒风险)。反之,人工智能也能提供解药,并改善信息技术安全管理,例如,通过帮助检测可疑行为或新威胁。为了充分释放人工智能在网络安全方面的潜力,数据科学家和网络安全专家之间需要加强合作。接下来,我想谈谈监管者在讨论人工智能的机遇和风险时自然会想到的监管和监督方面。欧盟凭借《人工智能法案》在这一领域走在前列。该法案主要关注金融领域的两个应用场景:个人信贷的信用评估,以及健康和人寿保险的风险评估和定价。作为市场监管机构,法国审慎监管与处置局应负责执行这一法规。这一新法规,以及更广泛的人工智能相关问题,在金融界引发了合理疑问:新要求将在多大程度上影响行业参与者?是否存在为了降低风险而扼杀创新的风险?虽然无法对这些问题一概而论,但我想就金融领域而言,用两条简单信息为这场辩论提供一些视角:一)无需惊慌,因为与人工智能相关的风险基本上可以在现有风险管理体系的框架内应对;二)然而,我们不应低估人工智能带来的某些新的技术挑战。就金融领域的风险管理而言,《人工智能法案》并不会带来一场哥白尼式的革命。金融机构拥有健全的风险管理文化,以及稳健的治理和内部控制体系。就在最近,《数字运营韧性法案》(DORA)在传统监管框架的基础上,补充了关于运营韧性和信息技术风险管理的具体规则。因此,金融界完全有能力应对遵守新法规的挑战。诚然,《人工智能法案》的目标——保护基本权利,与审慎监管的目标——金融稳定和履行客户承诺的能力,存在差异。但是,从操作层面看,当《人工智能法案》要求“高风险系统”具备风险管理流程、数据治理、可追溯性和可审计性,并在整个生命周期内采取措施保证稳健性、准确性和网络安全时,我们真的是在探索未知领域吗?我认为并非如此。相反,我认为金融领域现行的健全风险管理和治理原则对《人工智能法案》同样适用。因此,当法国审慎监管与处置局被要求履行其市场监管机构的职责时,这些原则将成为其评估系统合规性的衡量标准。更具体地说,我们对这一新使命的方法可以概括为几个原则:(i)实施监管意义上的“市场监管”,即主要旨在识别可能存在合规问题的系统;(ii)基于风险的方法,以确保所实施的手段与预期结果相称;(iii)充分利用与审慎监管的协同作用。我认为,这正是欧洲立法者在赋予国家金融监管机构“市场监管机构”职责时的意图。这也是在我们共同的目标应是简化法规的时候,确保不使法规变得更加复杂的最佳方式。当然,如果算法对相关组织构成风险,例如审慎性质的风险,即使《人工智能法案》不将其视为高风险,良好的治理和内部控制原则也同样适用于这些算法:在这一领域,《人工智能法案》的实施经验以及由此产生的最佳实践,对监管机构和被监管实体都将具有无价之宝的价值。我要再次强调,风险管理文化是一种资产。然而,人工智能的使用所带来的挑战不容忽视。这项技术提出的一些挑战完全是全新的。让我举两个例子。首先,可解释性:随着这一领域的每一次进步,人工智能算法变得越来越不透明,以至于往往难以甚至无法理解和解释机器提出的某些结果,或识别其来源,尽管一些工具正在努力克服这一缺陷。在像金融领域这样的受监管行业,这个问题自然至关重要,需要在各个层面加以解决:人工智能工具的日常用户需要充分了解其工作原理和局限性,才能恰当使用它们,并避免两个陷阱——要么盲目信任机器,要么系统地不信任它。监督人工智能系统运行的监管机构,尤其是审查这些系统的审计员,需要更高级的技术和功能解释来评估其性能、可靠性和合规性。还有最终客户,如果他们直接与人工智能算法打交道,他们有权获得对其所做决策或向他们提出的商业建议背后逻辑的解释。第二个例子是公平性。早在2016年,聊天机器人Tay在几个小时内变得“种族主义”,让我们所有人都意识到了这个问题;最近在消费者工具(如ChatGPT)中识别的偏见提醒我们,人工智能对数据中存在的偏见特别敏感,并且可能会强化这些偏见。事实上,《人工智能法案》的目标之一就是在这些偏见对公民造成伤害之前检测和防止它们。这是一个技术上复杂的问题,因为仅仅禁止使用某些受保护的变量并不足以保证算法无害。这一点在授予信贷或保险定价等活动中尤其如此,在这些活动中,客户细分是竞争环境中正常业务和风险管理实践的一部分。接下来发言的圆桌会议嘉宾无疑会解释他们如何在实践中应对这些挑战。我只想分享一个信念。其中一个挑战,如果不是主要挑战的话,就是让来自截然不同背景的专家相互交流和理解:数据科学家、法律专家、人机交互专家、审计员等。我之前提到过数据科学与网络安全之间合作的必要性:如你所见,需要建立的合作圈实际上要广泛得多!为了应对这些新方面,并提供证据证明满足了各种监管要求,金融机构需要通过获取新的人力和技术能力来增强其技能。作为市场监管机构和审慎监管者,法国审慎监管与处置局将确保风险得到有效管理。《人工智能法案》的合规自然不仅仅是一个内部标记的行政过程,监管机构不能仅仅“打勾”。相反,监管机构必须确保算法由了解其内部工作原理的有能力的人员管理和监控。这当然意味着,金融监管机构本身必须获得新技能,并适应其工具和方法。我们将不得不就新议题逐步建立一套规则,例如可解释性,法国审慎监管与处置局过去已经就这一议题发表了一些建议,或者算法的公平性。我们还需要开发一种审计人工智能系统的特定方法。我们不能也不应该独自迈出这一方法论上的一步:相反,我们需要与法国和欧洲的所有其他人工智能监管机构建立协同作用。人工智能监管是跨部门的,监管机构将无法逃避在这一涉及如此多不同专业知识的领域进行合作的迫切义务。今天,我希望将这一合作倡议扩展至整个金融部门。将《人工智能法案》与特定行业的法规相结合,明确期望,分享最佳实践,开发审计方法:监管机构和被监管机构面临着众多挑战,如果我们能够携手并进,就将更容易克服这些挑战。法国审慎监管与处置局(ACPR)目前正在为2026年的最后期限做准备:如同过去一样,它将寻求整个生态系统的意见,共同设计实施和监督《人工智能法案》的实用方法。因此,我今天呼吁金融部门的志愿公司联系法国审慎监管与处置局的工作人员,参与我们的工作。为了金融部门的稳定,我们必须共同掌握人工智能的使用;让我们携手应对这一挑战!感谢大家的关注。
……
获取完整文章
请后台回复“人工智能风险”
获取下载链接