【金融科技发展研究】金融业人工智能应用风险研究报告

文摘   2024-12-30 16:00   北京  

11

中国工商银行金融科技研究院  安全攻防实验室


者:苏建明 蒋家堂 叶红 程佩哲 许啸 黄蓉  



中国工商银行金融科技研究院  大数据和人工智能实验室


作者:金昕




【编者按】为进一步夯实金融科技应用与实践基础、加快推动金融数字化转型工作。金融科技产业联盟积极组织会员单位进行前瞻性研究,汇集研究成果及实践经验,形成《金融科技发展专报》,供相关部门和产业机构参考。

随着金融数字化转型的快速发展,人工智能相关技术在金融领域的应用场景日趋广泛,特别是大模型的出现,加速了人工智能在金融业应用的进程。同时,深度伪造、对抗样本等针对人工智能的新型攻击手法不断涌现,人工智能应用风险已引起行业高度关注。中国人民银行印发的《金融科技发展规划(2022—2025年)》明确,运用人工智能、大数据等技术,持续迭代优化风控模型和风险控制策略,推动风险管理从“人防”向“技防”“智控”转变,增强风险处置及时性、准确性,健全自动化风险控制机制。本文从基础设施、数据、模型算法、伦理等多方面分析金融业人工智能应用风险和防护,并给出典型案例,为金融行业开展人工智能应用提供经验参考。

一、


金融业人工智能应用风险概述

(一)国内外法律法规


针对人工智能应用风险,国内外均提出发展和安全并重、加强监管的核心思想,保障人工智能的安全发展。国内侧重于宏观监管和国家战略服务。中国人民银行在《人工智能算法金融应用评价规范》中规定了人工智能算法在金融领域应用的基本要求、评价方法和判定标准。国家网信办颁布了《生成式人工智能服务管理暂行办法》,旨在促进生成式人工智能健康发展和规范应用。国外监管更注重市场效率和消费者保护。美国《人工智能应用监管指南》的发布标志着欧美人工智能政策从伦理规范向监管规制逐步转变;欧盟在《人工智能法》中提出了风险分类思路、产品规制路径、负责任创新和实验主义治理理念。


(二)技术发展路线

人工智能风险及防护已成为技术研究的新兴领域,其技术发展也经历了从初步探索到逐渐深化的过程。模型攻击技术涵盖对抗样本攻击、模型窃取攻击、数据投毒攻击等多种手段,对人工智能系统的安全性构成了严峻挑战。模型防护技术主要包括对抗性数据增强、数据隐私计算与AI框架漏洞挖掘等,是提升人工智能防御能力的重要手段。

二、


金融业人工智能风险与防护框架

(一)基础设施层面


基础设施层面主要存在AI框架开源风险、AI框架和芯片安全漏洞、AI供应链安全风险、AI算力消耗风险和AI系统实现风险等。AI框架开源风险主要是指断供层面的风险,一旦开源框架的维护者决定终止支持,可能导致金融系统不稳定甚至瘫痪。AI框架和芯片安全漏洞的存在,可能导致机密信息泄露、模型被篡改等严重后果。AI系统与供应链的强耦合特性造成AI供应链安全风险隐藏在训练集和模型中,很难通过代码审计、成分分析等传统手段来识别及补丁修复。此外,金融人工智能应用需要庞大的计算资源进行训练和推理,若不提升算力资源利用率,则会造成收益比下降,带来AI算力消耗风险。AI系统实现依赖于软硬件平台的支撑,软件开发和硬件编码过程中如存在漏洞,也会引发AI系统实现风险。

基础设施层面需要推动软硬件国产化、加强安全检测以及建立风险防控体系,全面提升AI基础设施水平和安全保障能力。一是推动基础硬件国产化,引入国产训练芯片,优化容器调度适配国产芯片,统一资源监控,构建国产AI算力云集群。二是加大对国产开源AI计算框架的应用推广力度,防止AI开源框架断供。三是加强基础框架安全检测,建立完备的外部威胁情报监控及漏洞检测修复机制,保障系统安全。四是应建立体系化风险防控体系,明确开源可控防护政策、制度与原则,严格按照规范使用开源代码和应用。


(二)数据层面

在数据层面主要包括数据污染、数据质量和数据窃取等多重风险。数据污染风险是指数据采集错误、数据预处理不当、恶意攻击或人为失误等,被污染的数据会使得模型性能下降,预测失误。数据质量风险涉及数据完整性、准确性和可扩展性风险。不够全面的数据可能导致过拟合,准确性较低;错误的标注可能导致错误的训练结果;数据如果难被扩展,那么它的预测能力和泛化能力将受到限制。数据窃取风险是指攻击者通过模型输出逆向还原训练数据,或推断数据是否属于训练集,进而获取训练集的敏感信息。

数据层面要保障数据的合规性、机密性和可用性。一是确保数据合规性,应定期对数据来源、数据内容、数据处理、数据管理等方面开展合规性评测,建立内外审计制度,定期开展合规审计。二是确保数据机密性,对外部数据做好隐私保护,对内部数据设置权限控制,保障数据机密。三是确保数据可用性,通过数据流转的一致性、数据防投毒等技术保障训练数据的可靠可用。

(三)模型算法层面

算法层面主要的风险包括算法失窃风险、算法失效风险、算法指标失衡风险、算法同质化风险、算法可审计风险、文件木马风险、模型后门风险和对抗攻击风险等。算法失窃风险是指AI模型在传输和存储过程中未加密混淆导致模型算法泄露,或训练功能相似的代理模型来窃取原模型的知识。算法失效风险源于金融场景的复杂性,只能提取重要特征描述真实市场,这种以局部特征代替整体特征的方法,使得算法存在局限性。同时,由于部分评价指标只能片面地反映模型的部分性能,如果不能合理运用,可能导致算法指标失衡风险。此外,当多个机器学习模型使用相似的训练数据和学习方法时,可能导致模型共同犯错,引发算法同质化风险。在模型训练、部署到应用的全流程中,若缺乏完整的记录,则存在可审计风险,影响后续审计回溯。文件木马风险可在执行模型文件的反序列过程中引发恶意代码执行。模型后门风险是指通过干扰模型训练,操纵模型针对带有特定标记的输入出现指定结果。对抗攻击风险是对模型的输入进行微小扰动,从而引导模型输出错误决策。

在模型算法层面,重点关注模型稳健性、公平性、可解释性、训练监控、访问控制、模型遗忘等方面一是通过对抗样本生成、对抗训练、模型集成及迁移学习等技术提升模型对噪音、异常点的识别能力,增强模型稳定性。二是采用数据纠偏、特征剔除或替换、模型融合训练及后处理补偿等手段解决偏见问题,增强模型公平性。三是基于样本、知识和反事实等方法,提高模型可解释性。四是加强对模型训练过程的实时监控,确保模型的可靠性。五是建立模型访问控制及授权机制,确保其使用合法性。六是利用差分隐私,数据集拆分和分布式训练等多种模型遗忘技术优化模型,降低不良数据对模型算法的影响。

(四)应用层面

人工智能在应用层面,存在信息茧房、算法共谋和算法应用风险。信息茧房是指个性化推荐算法使得用户倾向于只接收与自己观点相符的信息,难以接触到不同观点。算法共谋利用智能算法自动化决策,通过“黑箱”特性实现无沟通共谋,这种协作可能会对市场竞争、社会公平产生负面影响。算法应用风险以恶意滥用、算法思维依赖两种最为典型。恶意滥用即通过AI算法实现恶意操作,如深度伪造、恶意邮件等。此外,随着AI的普及,业务人员长期对AI的思维依赖可能影响业务运营。

应用层面需规范应用场景、注重应用安全检测、加强运营异常监控、开展安全意识培训、明确责任认定。一是规范人工智能的使用场景,降低人工智能安全风险对金融业务带来的不利影响。在高风险业务场景中宜将人工智能模型作为辅助使用,避免其直接进行决策。二是应定期开展应用安全检测,保障人工智能业务应用系统的正常运行。三是通过监控模型接口调用频率等方式进行运营监控,识别异常的访问,保护模型免受恶意试探。四是定期对员工开展安全培训,提高员工对风险的认识。五是采取事前责任分配和事后“安全网”相结合的机制,明确风险责任认定及补偿措施。


(五)伦理层面


伦理风险主要涉及金融伦理风险、歧视性风险、算法黑箱风险和责任界定风险等。金融伦理风险是指模型在训练及后续决策过程中产生的不公平结果,损害了部分群体的利益。歧视性风险是指在信息的生产、分发及核查的过程中对用户造成的非中立立场影响,从而导致片面、失实等信息观念的传播。算法黑箱风险是指用户对模型算法只能停留于模糊的认知边界,无法知悉其得出结果的主要依据和具体过程。责任界定风险是指当人工智能系统出错时,难以明确界定模型开发者、服务提供方、用户自身或其他相关方的法律责任与伦理责任。

伦理层面应强化科技伦理治理和法律监管,并在AI的全生命周期中贯彻伦理管控和人文关怀,以增强全社会的伦理意识和自觉行为。一是应遵循制度要求,加强科技伦理治理,尤其需要加强法律监管,明确责任主体,强化伦理审查。二是开展全生命周期伦理管控,秉持科技向善的人文理念和伦理先行的价值观念,将伦理道德融入AI全生命周期,增强全社会的AI科技伦理意识与行为自觉。


(六)隐私层面


隐私层面的风险主要分为个人隐私风险和商业隐私风险。人工智能模型训练数据中可能含有个人隐私信息和商业隐私信息,若过度收集并在未获得用户授权同意的情况下违规使用此类数据进行模型训练,可能会对个人及企业的隐私造成侵犯。

隐私层面需从以下三方面缓解隐私泄露风险。一是确保人工智能模型训练数据的合法合规,在用户知情的前提下遵守最小化原则收集与使用数据。二是要对训练数据采用数据脱敏技术、差分隐私技术等隐私保护算法进行处理,确保数据无法直接关联到具体个人。三是需培训员工数据隐私安全意识,在应用人工智能模型时避免输入个人或企业的隐私信息,降低隐私泄露的风险。

(七)管理层面


管理层面的风险主要包含侵犯版权风险、消费者知情风险、组织流程风险和监管合规风险。人工智能应用过程会涉及大量第三方数据,如果金融机构在未经授权的情况下使用了这些数据,则可能面临侵犯版权风险。其次,金融机构在收集消费者数据时,难以详尽阐述数据范围、使用规则并取得消费者同意,从而引发消费者知情风险。同时,人工智能的引入可能会造成金融机构的现有人员不胜任,组织方式及业务流程不匹配等组织流程风险。此外,目前尚未建立行业层面统一的人工智能治理框架,行业法规和标准规范有待完善,存在监管合规风险。

在探讨金融机构如何有效利用人工智能技术的同时确保合规性,以下是管理层面三个关键措施。一是为防范侵犯版权风险,金融机构应在内部管理上建立严格的版权审核机制,确保数据和算法模型的合法合规。二是对应用人工智能提供服务的全流程进行真实全面地说明,推进模型准确性和透明性治理、规范消费者数据收集和使用程序。三是金融机构应根据自身的战略、成本等方面审慎地评估自身需求和技术能力,平衡人工智能应用与合规风险治理。

(八)大模型层面


随着大模型能力的不断增强和适用范围的延伸,大模型安全风险与防护也引发了业界高度关注。主要的风险点包括通过设计特定提示操纵输出的提示注入风险。利用算法生成后缀绕过安全机制产生恶意输出的后缀对抗风险。因过度泛化生成虚假信息,影响准确性的AI幻觉风险。因智能体应用自身框架漏洞、智能体外链应用权限失控和智能体外链应用漏洞等的智能体安全风险。训练数据或模型受到毒害从而生成具有危害性的内容合规风险。利用API安全漏洞实施攻击,导致模型的外部能力直接泄露,导致越权、未授权访问他人信息等调用交互风险。预训练模型的缺陷传导至下游,涉及质量、技术和供应链多方面的基座模型风险。

除了传统人工智能模型防护措施外,针对大模型特有的安全风险,有以下几点防护层面。一是通过对抗训练优化、系统提示优化、输入输出检测等方法,增强提示注入攻击防御能力。二是强化事实性监督与检查,关键应用引入人工审核,并提示用户结果风险,缓解模型幻觉。三是严格筛选输入数据,优化引导模型符合价值观的内容,减少有害输出。四是明确接口规范与协议,实施身份验证与授权,设定不同访问级别,确保调用过程的安全可控。五是通过专家评审与自动化工具等手段识别风险点,采用多源供应商、本地化部署等策略,同时制定应急预案,建立持续改进机制,共同防御基座风险。

三、


典型案例


(一)工商银行人工智能安全框架


工商银行构建了全面的人工智能安全框架,涵盖数据安全、模型安全、应用安全及安全测评。数据安全通过源头控制、精确管理访问权限、加密脱敏等技术确保数据生命周期的安全性和合规性,保障用户数据和商业秘密的安全可控;模型安全从算法内生安全入手,提升模型透明度和可解释性;应用安全通过强化权限管理、内容审核和防伪机制保障内容安全;安全测评方面,工商银行建设了系统化、标准化的安全攻防演练和测评整改能力,全面了解应用安全状况,及时发现并修复隐患,为持续优化提供依据。工商银行人工智能安全框架见图1。


图1 工商银行人工智能安全框架


(二)邮储银行人工智能安全技术体系


邮储秉持“守正审慎”原则,积极应对人工智能应用风险,构建了一套全方位、多层次的安全技术体系。在数据层面,邮储注重知识对齐,对训练语料进行持续的知识矫正,确保模型的自主可控、可追溯和可解释。在算法层面,邮储采用安全测试方法全面评估算法安全,并通过攻击样本生成、强化训练等措施加固算法,同时构建安全运营体系,全面管理人工智能资产,监控服务运行指标,建立安全态势感知和预警机制。在应用层面,邮储根据用户类型构建内外部安全评级体系,实行差异化管理,确保人工智能应用服务的安全与稳定。邮储银行人工智能安全技术体系见图2。

图2 邮储银行人工智能安全技术体系


(三)蚂蚁集团大模型安全一体化解决方案


随着大模型与Agent智能体的广泛应用,涌现出模型幻觉、安全漏洞及内容滥用等新挑战。蚂蚁集团应势推出蚁天鉴2.0,构建双重防御体系,内置净化训练数据,外置智能风控,全方位保障安全。蚁天鉴2.0形成了包括大模型基础设施测评、大模型X光测评、应用安全测评、AIGC滥用检测、证件伪造检测、围栏防御等在内的完整技术链条,面向行业提供全方位智能化的大模型安全测评和防御解决方案。蚂蚁集团大模型安全一体化解决方案框架见图3。


图3 蚂蚁集团大模型安全一体化解决方案


四、


发展建议


随着数字化转型的不断推进和数字化金融场景的快速创新,金融业人工智能正进入融合应用、拓展深化的新阶段。同时人工智能应用风险也成为金融行业不容忽视的挑战,金融企业需要携手合作,从监管、技术、管理及合作等维度构建全面的风险防控机制,保障市场稳定与健康发展。


(一)构建金融人工智能监管新生态,引领行业安全稳健发展


金融业人工智能的发展需要构建以安全为基石、创新为驱动的全新监管生态,制定符合金融行业特点的人工智能监管政策,构建人工智能监管组织架构,探索分类分级监管模式,遵循风险分级、最小干预原则,实现以安全促发展的目标。


(二)提升核心技术自主可控水平,筑牢人工智能安全防线


在全球化背景下,金融业人工智能的健康发展离不开关键核心技术的自主可控。加强基础、共性与应用技术的研发,保障金融行业免受外部技术威胁、确保系统稳定运行。同时推进智能检测工具与监测预警平台的建立,将进一步提升对潜在风险的感知与响应能力,为金融安全筑起一道坚实的防线。


(三)强化内部管理与员工培训,保障人工智能可信应用


金融企业必须强化内部管理并加强员工风险意识培训,提升从业人员对人工智能技术的认知与驾驭能力,在企业内部建立人工智能风险管理体系,制定清晰的人工智能使用政策、范围及方式,形成有效的风险评估机制,并实施风险监控。同时,加强员工培训与教育,确保人工智能技术健康、安全地服务于社会经济发展。


(四)促进跨行业技术交流合作,共建人工智能风险治理体系


快速发展的数字时代,人工智能技术已成为推动各行业创新的核心驱动力。鉴于人工智能技术广泛应用带来的共性风险,跨行业技术交流与合作已成为人工智能风险防控的关键。需树立全球视野,促进知识与资源的有效流通,分享人工智能风险治理的成功经验与最佳实践,共同构建更加公平、开放、包容的金融业人工智能风险治理体系。

本文来源:金融数字化转型工作专业委员会

投稿邮箱:News@bfia.org.cn

免责声明:所载内容来源互联网、微信公众号等公开渠道,我们对文中观点保持中立,仅供参考、交流等非商业目的。转载的稿件版权归原作者和机构所有,如有侵权,请联系我们删除。

北京金融科技产业联盟
传达联盟讯息、政策法规、行业动态、会员动态、入会指南等消息
 最新文章