麦肯锡:拥抱生成式AI在信用风险中的应用

文摘   2024-08-13 16:46   英国  

麦肯锡:拥抱生成式AI在信用风险中的应用

信用风险组织已经开始采用生成式AI技术。那么,他们如何在确保安全的前提下大规模部署这些技术?

有些技术如此具有吸引力,以至于它们很快就会自行发展。生成式AI(gen AI)自2022年底OpenAI推出ChatGPT的公开测试版以来,迅速从实验室走向主流。短短两个月内,用户量就超过了1亿,使其成为人类历史上增长最快的产品。

到2023年第一季度,大型科技公司已经开始将生成式AI功能集成到自己的产品中,并向企业客户提供生成模型的程序化访问。一年后,生成式AI在多个行业中产生了影响,其中包括一些传统上对采用新兴技术持相对保守态度的行业——例如信用风险领域。

麦肯锡最近调查了来自24家金融机构(包括美国前十大银行中的九家)的高级信用风险管理人员。我们询问了这些高管关于其组织对生成式AI的采用情况、当前的使用案例、未来计划以及他们预期的挑战。

有20%的受访者已经在其组织中实施了至少一个生成式AI的使用案例,另有60%的人预计将在一年内实施。即使是最谨慎的高管也认为,生成式AI将在两年内成为他们公司信用风险流程的一部分。

信用风险中的使用案例

这些金融机构在准备使用生成式AI时,正在考虑其在整个信用生命周期中的潜在应用。通常,这类应用使用大语言模型(LLM)来组合、总结和分析非结构化数据和自然语言。它们还可以输出复杂的自然语言形式(如报告、电子邮件和摘要文件),并生成结构化数据或为其他软件工具提供指令。

我们的调查揭示了生成式AI在信用风险中的几个潜在使用案例。

在客户互动中,生成式AI可能用于根据客户的档案和活动历史,提供超个性化的产品组合。生成式AI系统可以通过起草个性化的外联沟通、总结会议内容并建议下一步行动来支持客户关系经理。生成式AI驱动的虚拟专家可以帮助客户识别并确定适合的产品。

在信用决策和承保过程中,生成式AI工具可以审查文件并标记政策违规或缺失数据。它们可以起草外联沟通,寻求客户的澄清或缺失信息。它们还可以帮助收集客户信息,进行信用分析,并在信用官审查之前起草信用备忘录的几个部分。基于代理的生成式AI系统可以自主执行任务序列,从来源中提取信息,计算相关比率,将结果与典型阈值进行比较,并在信用备忘录中总结结果。所有这些功能都可以用自然语言开发,使用简单的英语,几乎不需要编程和高级建模技能。

一旦信用获得批准,生成式AI可以简化并加快合同流程。例如,生成式AI系统可以起草法律合同,或者创建外联沟通,通知客户信用决策和可能需要的下一步。

在投资组合监控中,生成式AI工具可以通过多种方式支持投资组合经理,例如自动生成常规绩效和风险报告或根据投资组合经理的分析起草投资组合优化选项的摘要。生成式AI系统甚至可以根据组织的风险偏好,生产细分市场特定的优化策略,并通过消化实时非结构化信息(如新闻或市场报告)优化现有的预警系统,以识别风险较高的借款人或需要关注的借款人群体。

最后,生成式AI工具可以支持客户援助流程——例如,在出现问题时,起草个性化的外联沟通给客户。生成式AI系统还可以识别适合的重组选项,并引导客户完成重组过程。此外,一些机构正在使用生成式AI实时指导其代理与客户的互动,并进行通话后的分析。

调查的受访者表示,他们正在探索生成式AI在所有这些领域的应用。投资组合监控是受访者中当前活动最为集中的领域:近60%的受访者正在推进这些使用案例。信用申请流程是报告活动的第二大领域,与控制和报告并列:超过40%的受访者报告在这两个领域有正在进行或计划中的项目。在业务线上,受访者认为生成式AI在批发信贷中的潜力略高于零售信贷。

信用风险中生成式AI的现状

生成式AI已经进入信用风险领域,但尚未彻底改变该领域。受访的高管对当前的生成式AI使用案例表示坦率,这些案例大多是针对特定操作痛点的狭窄、非客户导向的解决方案。

例如,一家银行开发了一个生成式AI工具的概念验证,该工具可以为商业客户预填气候风险问卷。银行的客户关系经理需要定期填写此类问卷,作为其气候风险监控的一部分。基于LLM的生成式AI系统从客户的年度报告和其他披露中提取相关信息。这些源文件经过预处理,以识别相关部分,然后将这些部分与精心设计的提示一起呈现给模型,要求其查找并总结关键信息。模型提供了一个综合的回答,并包括对源材料的相关引用。最后,由人类主题专家审查并验证结果。

另一个使用案例是生成式AI在起草信用备忘录中的应用,这是几家银行正在探索的。在商业银行中,第一线通常需要花费大量时间收集信息、进行分析并撰写备忘录,以进行信用决策和承保目的。生成式AI工具可以执行诸如提取、收集和来源信息、分析财务信息、可视化数据以及按照预设指令起草备忘录部分的任务。投资组合经理可以在最终确定之前,审查生成式AI工具起草的备忘录以及工具提供的置信度估计。除了为其他活动腾出时间外,该工具还可以提高生成备忘录的一致性和准确性,并可能加快信用决策过程。

挑战

高管们承认,在信用风险中扩大生成式AI的应用将是具有挑战性的。75%的受访者强调,风险和治理是最重要的障碍。使用生成式AI的主要风险类别包括:

  • • 算法公平性的损害,可能导致用户混淆或误导

  • • 知识产权侵权,例如版权侵犯或抄袭

  • • 使用个人或敏感信息训练模型导致的隐私侵犯

  • • 恶意内容的生成

  • • 安全威胁和相关漏洞

  • • 性能和可解释性问题

  • • 使用第三方专有数据的风险

  • • 环境、社会和治理(ESG)影响,例如增加碳排放或劳动力中断

这些关键风险如果管理不当,可能会导致监管、法律、声誉和业务上的后果。

67%的参与者强调了组织内部生成式AI能力的潜在短缺。大约50%的参与者提到的其他挑战包括定义使用案例和评估风险价值的困难。

我们询问了参与者关于管理生成式AI应用风险的框架或护栏的需求。79%的受访者表示,数据质量是最大的担忧,其次是模型风险问题(58%提到),如透明性、可审计性、公平性和可解释性。

在信用风险组织中,缺乏正式和协调的组织支持,加剧了一些挑战。只有三分之一的受访者所在的机构已经建立了管理生成式AI使用案例的卓越中心(CoE)。不到10%的受访者报告称,他们的组织目前在中心层面定义生成式AI使用案例。大多数案例是分散发起的,因此无法利用常见的实践和经验教训。

构建生成式AI生态系统

为了充分发挥生成式AI在信用风险中的潜力,金融机构必须超越今天的临时方法,开发一套通用的实践,以优先考虑、开发、部署、维护和重复使用生成式AI应用。以下八项实践是必不可少的:

  1. 1. AI路线图。 这应该与组织的整体业务战略保持一致,解释所需的能力和解决方案,并提供一个开发、启动和大规模部署的时间表。

  2. 2. 生成式AI工具构建的对齐流程。 这些流程应支持快速但安全的端到端实验、全面验证以及解决方案的部署。

  3. 3. 支持混合云环境的安全生成式AI就绪技术栈。 这样,公司可以获得训练模型并大规模运行所需的计算能力。这样的技术栈应能够管理非结构化数据,训练和执行模型,并对数据进行前处理和后处理。

  4. 4. 与企业级基础模型和工具的集成。 这些是大型深度学习神经网络,例如支持高级生成式AI系统的大型语言模型,以及支持其定制和部署的软件工具包。生成式AI应用直接使用这些模型或以它们为基础开发专有解决方案。

  5. 5. 健壮的自动化支持工具。 这些包括机器学习运维(MLOps,管理模型训练和开发的系统)和适当的数据基础设施和处理管道,以支持使用案例的开发、发布和维护。

  6. 6. 治理和人才模型。 这个模型可以部署跨职能专家来支持生成式AI的发展。这些提供支持的人才可能包括软件开发人员、自然语言处理(NLP)专家、基于人类反馈进行强化学习的团队(RLHF)、云计算专家、AI产品负责人以及法律和监管专家。

  7. 7. 模块化解决方案架构。 这允许并行开发和跨不同层(如用户体验层和业务逻辑层)的定制化连接。

  8. 8. 生成式AI服务和解决方案的生产就绪库。 库中的项目可以插入信用价值链中的各种业务场景和应用中。

开发和部署这些八项实践将需要大多数机构付出时间,但即使是部署其中一些也可以显著提高效率和有效性。例如,已经实施了两项实践的机构报告称,生成式AI部署成功的速度加快了30%至50%。首先,这些机构遵循了包含三层的模块化解决方案架构:用户体验层、业务逻辑层和基础设施层。这些由组织的运营模型启用。其次,这些机构重用现有组件并采用开源库;例如,开发人员可以从现成的模块(如数据检索管道、提示库和护栏)中挑选和选择,快速构建一个端到端的生成式AI解决方案——通常只需一到两周。

主要的信用风险参与者正在迅速拥抱生成式AI。这项技术具有变革潜力,承诺在整个信用生命周期中提高效率、准确性和个性化服务。虽然早期采用者已经开始享受这些好处,但要实现广泛实施,金融机构需要克服与风险治理、人才获取以及创建支持生成式AI应用的综合生态系统相关的重大挑战。通过应对这些障碍并培养鼓励创新和合作的环境,金融机构可以释放生成式AI的全部潜力,为信用风险管理设立新的卓越标准。

公众号:LLMQuant

LLMQuant
起源于剑桥大学的量化社区,每日分享人工智能与量化金融前沿: www.llmquant.com