综述 | 可解释性人工智能(XAI)在金融时间序列预测中的应用

科技   2024-08-07 21:14   浙江  

点击名片

关注并星标

#TSer#

扫下方二维码,加入时序人学术星球
参与算法讨论,获取前沿资料
220+篇专栏笔记,已有210+同学加入学习)

当前,人工智能(AI)模型已经达到了较高的准确度水平。虽然其卓越的性能带来了相当大的好处,但其固有的复杂性却常常降低人类的信任度,从而减缓了它们在高风险决策领域(如金融)的应用。可解释性人工智能(XAI)领域旨在弥合这一差距,使AI模型更易于理解。

本文介绍一篇来自加拿大学者所做的综述研究(由于篇幅限制,仅分享重点内容,感兴趣的朋友可查阅原文细节内容)。研究者通过重点关注过去五年发表的工作,对预测金融时间序列的 XAI 方法进行了分类。该综述区分了可解释性和可理解性,并强调了在实践中需要分别对待这些概念,因为它们的应用方式并不相同。通过明确的定义、严格的 XAI 方法分类、互补的特征描述以及 XAI 在金融行业中应用的实例,并且提供了 XAI 在金融领域当前角色的全面视角。同时,该综述也可作为未来应用中选择最合适的 XAI 方法的指南。


【论文标题】A Survey of Explainable Artificial Intelligence (XAI) in Financial Time Series Forecasting
【论文地址】https://arxiv.org/abs/2407.15909


相关定义


自20世纪80年代诞生许多统计模型以来,金融行业越来越多地采用人工智能,主要用于股票交易和风险管理应用。随着该领域的成熟,它采用了更先进的技术,从专家系统和神经网络到最近加入深度学习模型。这些创新为金融行业提供了市场分析、金融行为预测和风险管理方面的出色工具。然而,这些复杂模型缺乏透明度,这常常限制了它们的实际应用。当用户无法解释模型的推理时,即使输出精度很高,也可能被认为在关键财务决策中不可靠。这强调了 XAI 作为解决方案的重要作用。

XAI 是人工智能的一个分支,旨在让人类能够理解,从而促进用户之间的信任。XAI 的主要特征是其能够让人类用户理解其模型的内部工作原理,理解模型的运行方式使机构能够更有效地识别和减轻风险。在决策场景中,XAI提供相关信息,帮助用户评估预测的可靠性。因此,用户可以明智地将模型输出与他们的专业知识相结合,以做出明智的决策。

要成为 XAI,一个人工智能系统必须要么是本质上可解释的,要么使用一种独特的方法来阐明其决策过程。

可解释模型,通常被称为透明模型,是这样设计的:用户只需通过检查它就可以直观地理解其内部工作原理。模型的各个组成部分都是清晰可理解的,有助于全面了解其功能。例如,具有有限输入特征集的线性模型被认为是可解释的。在这样的模型中,每个系数都表示其相关特征的贡献。因此,可解释性可以被描述为模型的一种固有属性,即其设计本身使得其操作在第一眼看上去就是透明的。重要的是要注意,可解释性不是一个简单的二元特征。如果一个模型比不透明的模型更容易理解,那么它就被认为是可解释的。可解释模型旨在为用户提供解释,帮助他们理解模型的运作方式。通常,可解释模型本质上是一个黑盒模型,通过添加特定的可解释性方法(如 SHAP 或 LIME)来阐明其内部处理过程。

纯黑盒模型,也称为不透明模型,其工作方式不是立即可辨别的,因此其内部工作和决策过程对用户来说是不可理解的。有些模型被指定为黑盒模型有两个原因:要么是其固有的设计,要么是因为强加的保密性。例如,深度神经网络由于其涉及许多操作的复杂架构,本质上很难理解,因此被归类为黑盒模型。另一方面,即使是一个包含少量特征的基本线性模型,如果所有者只披露输出而不披露系数,也可能被视为黑盒模型。因此,可解释性可以定义为模型阐明其功能的能力,为用户提供关于其操作机制的见解。

在本文的其余部分中,研究者还定义了几个重要概念。

术语“模型”指的是一系列计算或数学方程,这些计算或数学方程描述了计算系统的工作方式,该系统接受典型的输入(如数字或单词),并针对给定任务生成输出或预测。

可解释性方法被定义为一个过程,它接受模型作为输入,并提供该模型的解释作为输出。因此,可解释模型是指已经应用了可解释性方法的模型。一种方法包含许多这样的计算步骤。

研究者还讨论了用户的概念,指出在金融领域中,用户可能包括数据科学家、商业专业人士、审计师或消费者。因此,为不同用户定制解释变得至关重要,因为一种解释可能不适合另一种用户。此外,研究者还强调了解释的上下文敏感性,需要根据不同用户的需求提供定制化的解释。

通过这些定义,该综述为读者提供了一个坚实的基础,以便更好地理解 XAI 在金融时间序列预测中的作用,并为后续章节中对 XAI 方法的分类和评估奠定了基础。


分类框架


图1中所示的分类法的目标是帮助读者为他们的特定环境选择合适的 XAI 方法。


图1:XAI分类法


首先,XAI 方法被分为可解释模型和可解释性方法两大类。然后,每个类别再根据 XAI 的原则进一步细分,这些原则包括特征重要性、视觉解释和时间序列分析。之后,根据用于说明 XAI 原则的技术,将可解释性方法和可解释模型进行分类。对于可解释模型,它包括线性回归、注意力机制、决策树、图等。对于解释方法,它包括扰动、传播和视觉界面。



可解释模型


研究者详细介绍了在金融时间序列预测中使用的几种模型,这些模型因其设计而易于理解,从而提供了一定程度的可解释性。这些可解释模型通过提供特征重要性、决策规则或时间序列趋势的分析,帮助用户理解模型的预测过程。论文强调,即使是复杂的模型,只要它们能够提供有助于用户理解的信息,也可以被认为是可理解的。

01

特征和时间重要性 


特征重要性是 XAI 的一个原则,用于衡量每个特征对预测或整个数据集的影响程度。它还包括时间重要性,用于衡量特定时间段的重要性。如果特征重要性反映了对特定预测的影响,则称为局部特征重要性;如果它反映了对数据集的影响,则称为全局特征重要性。

这种模型与上下文之间的联系使用户能够更好地理解两者。当上下文信息充分时,特征重要性可以帮助证明模型的决策是合理的。此外,一个准确模型的特征重要性可以揭示金融市场中的未知信息,并帮助用户发展新的理论。

了解不同技术如何衡量特征重要性,以及它们各自的优势和局限性,对于确保模型的可解释性和准确性至关重要。因此,在选择适合特定应用场景的特征重要性计算技术时,需要综合考虑模型的类型、数据的特性以及用户的需求。同时,随着技术的不断发展,我们也需要不断探索新的方法来更好地理解和解释模型的决策过程。

(1)线性回归(Linear Regressions):

线性回归模型因其简单性和直观性被认为是最容易理解的模型之一。尽管传统的线性模型不能精确预测金融时间序列的复杂性和非线性,但它们可以通过集成到复杂模型中来增强其可理解性。例如,自适应主从模型(Adaptive Master-Slave, AMS)使用图神经网络作为主模型来为每家公司创建一个线性回归作为从模型,从而预测每家公司的意外收入。

(2)决策树(Decision Trees):

决策树通过基于特征值的一系列问题来模拟决策过程,形成了清晰、可视化的树状结构。决策树的每个节点代表一个决策标准,每个分支代表决策的结果,最终的叶节点提供模型的预测。决策树的透明度体现在可以追溯任何特定预测背后的决策过程。

(3)注意力机制(Attention Mechanism):

注意力机制在深度学习模型中用来评估输入特征的重要性,提供了对时间序列数据的可解释性。例如,集成了注意力机制的 LSTM 模型(如ILSTM和AT-LSTM)能够分离特征的隐藏状态,从而提供预测的特征重要性。

(4)模糊逻辑(Fuzzy Logic):

模糊逻辑通过使用模糊集合和模糊规则来处理不确定性和不完整性,增强了模型的可解释性。例如,使用直觉模糊逻辑和深度学习的股票预测模型,通过犹豫值来衡量特征的重要性。

(5)图模型(Graph Models):

图模型通过捕捉特征之间的关系并估计这些特征的重要性,提供了模型的可解释性。例如,使用文本网络分析股票指数与分析师研究报告之间关系的模型,通过图的中心性来解释特征的重要性。

(6)掩码(Mask):

某些模型使用掩码技术来揭示网络中哪些部分对预测最为重要。例如,CTV-TabNet模型使用掩码和Alpha层来确定短期和长期视图的重要性。

(7)贪婪算法(Greedy Algorithm):

一些模型使用贪婪算法,如递归特征消除(Recursive Feature Elimination, RFE),来计算特征重要性。通过逐步移除对准确性影响最小的特征,可以确定特征的重要性。

(8)混合技术(Hybrid Techniques):

一些模型结合了多种技术来提供特征重要性,例如使用基于树的模型和两阶段特征选择过程。


02

决策规则 


决策规则是另一个有助于模型可解释性的 XAI 原则。它们规定了模型用于进行预测的条件,反映了从数据中学习到的模式。在某些情况下,这些规则可以与金融理论相关联。通过揭示这些规则,用户可以更清楚地了解模型的操作方式,并可能发现他们原本无法猜测的模式。

提供决策规则主要有两种技术:一种是基于决策树,另一种是基于规则的模块。尽管决策树本身是一种模型类型,但它可以在复杂模型内部使用,并保持其可解释性。另一方面,基于规则的模块是模型的一个组成部分,或者是包含决策规则的整个模型本身。它包括所有用于计算规则的具体方法,如由专家推导出的规则、学习到的规则以及这两者的混合。按照惯例,基于规则的模块不包括决策树。

基于决策树的规则通常比较直观,因为它们直接反映了数据中的分割和分类过程。然而,当决策树变得非常复杂时,其规则可能会变得难以理解和解释。相比之下,基于规则的模块允许更灵活地定义和表达决策逻辑,可以更直接地反映金融理论或业务逻辑。

在选择使用哪种技术来提供决策规则时,需要权衡模型的复杂性、可解释性以及用户的需求。在某些情况下,结合使用决策树和基于规则的模块可能是一个好的选择,以充分利用它们的优势并克服各自的局限性。


03

趋势分析 


趋势是时间序列分析中的一个关键组成部分,可以提供对数据的深入理解。在金融领域,识别和理解这些趋势对于预测和决策至关重要。


(1)HPFilter和GRU模型的结合:


研究者介绍了一种基于高斯过程滤波器(HPFilter)和门控循环单元(GRU)的模型,用于股票价格预测。HPFilter 通常用于宏观经济学中的长期趋势分析。该模型将开盘价、收盘价、最低价和最高价分解为长期趋势和短期波动两个组成部分,每个部分由一个特定的 GRU 模型来建模。


(2)趋势和季节性的解释:


N-BEATS 模型通常用于单变量时间序列预测,但该模型的提出者提出了一种特殊配置,使其能够解释趋势和季节性,而不降低预测结果的准确性。这种配置允许从模型预测中单独提取季节性和趋势,并与预测一起在图表中进行分析。


(3)混合预测方法:


该方法将时间序列表示为线性成分和非线性成分的总和。这种方法允许从时间序列中提取线性和非线性部分,为预测提供解释。


(4)PARNN模型:


概率自回归神经网络框架(PARNN)使用 ARIMA 计算输入数据的线性部分,然后计算残差,并将残差与输入时间序列一起输入到一个神经网络中,以得到时间序列预测。



可解释性方法


01

特征和时间重要性 


本节讨论了两种主要技术来衡量模型中特征的重要性:传播(Propagation)技术和扰动(Perturbation)技术。传播技术通过跟踪模型中的信息流动来确定特征的影响,而扰动技术通过改变输入并观察结果的差异来量化特征的效果。


(1)传播技术(Propagation Techniques):

特别是针对基于神经网络的模型,利用梯度或神经元的信息来分析特征的重要性。例如,Layer-Wise Relevance Propagation (LRP) 和 Integrated Gradients 这样的方法利用神经网络的可微性来计算特征的重要性。

(2)扰动技术(Perturbation Techniques):

包括经典方法和复杂方法,如 SHAP 和 LIME。这些方法通过修改输入特征并观察对预测结果的影响来评估特征的重要性。

  • SHAP(SHapley Additive exPlanations)

SHAP 是一种基于扰动的方法,它使用博弈论的原理来为每个特征分配重要性值。SHAP 通过考虑特征在所有可能的特征组合中的缺席来评估其对特定预测的影响。

  • LIME(Local Interpretable Model-agnostic Explanations)

LIME 是一种局部解释方法,通过在感兴趣的预测点周围使用可解释模型(通常是线性模型)来近似复杂模型。

02

视觉解释 


可视化模型的输入、核心或输出是理解模型及其预测的有效方式。这一原则被称为视觉解释,它将所有有助于用户理解模型的视觉信息归为一类。

由于人类的视觉特性,这一原则本质上对人类来说是可理解的。与其他关注呈现信息的 XAI 原则相比,这一原则更侧重于如何将信息以人类可理解的方式呈现。它通常与其他原则(如特征重要性)相结合。

本综述中提供的用于提供视觉解释的技术是用户界面(UI)。在此上下文中,UI被定义为显示模型解释的应用程序。UI 通常包含多种类型的信息,如图表、绘图、文字、表格等。它可以显示模型本身的信息,如参数或特征重要性,也可以包含有助于用户理解模型、预测和上下文的补充信息。这些信息包括过去数据的图表、新闻更新、与过去预测或实际数据的比较、模型细节等。它汇集了有助于数据科学家工作的各种信息。另一种视觉解释技术是降维,该概念旨在降低多变量时间序列的维数,以便在二维或三维中可视化。



总结


在该综述中,研究者介绍了最近应用于金融时间序列预测的可解释模型和可解释性方法。该综述可以作为在金融领域选择 XAI 方法的有用参考,旨在促进AI在金融中的负责任和透明应用,将最前沿的机器学习技术与该行业严格的伦理和监管标准相结合。据研究者所知,这是首个专注于预测金融时间序列的XAI综述。


基于本次综述,研究者认为线性回归、注意力机制和基于规则的模型是构建可解释模型的最流行技术,而 SHAP 算法则是可解释性方法中最常用的。SHAP 的流行源于其坚实的数学基础和易用性。很少有研究严格测试了其可解释性方法的忠实度和可靠性,基于可解释性水平的排名可能会带来启发。此外,模型可解释性缺乏定量指标表明该领域需要进一步研究。由于大多数 XAI 模型在性能和可解释性方面尚未使用相同的基准进行测试,因此选择最佳方法仍然具有挑战性。为了开发和应用 XAI 方法,需要更多的定量研究。


扫下方二维码,加入时序人学术星球

星球专注于时间序列领域的知识整理,前沿追踪

提供论文合集、视频课程、问答服务等资源

220+篇专栏笔记,已有210+小伙伴加入

价格随着内容丰富而上涨,早入早享优惠哦~

时间序列学术前沿系列持续更新中 ⛳️

后台回复"讨论",加入讨论组一起交流学习 🏃

往期推荐阅读


ICML 2024 | CaRiNG:在非可逆生成过程中学习时间因果表示
WWW 2024 | FCVAE:从频率角度重新审视 VAE 在无监督异常检测中的效果
ICLR 2024 | FTS-Diffusion:针对金融时序中不规则特征的生成学习
ICML 2024 | BayOTIDE:针对多变量不规则时间序列的高效插补算法
ICML 2024 | 时序异常检测应该如何设计有效的模型?
ICML 2024 | 探索“河流网络拓扑+GNN”在洪水预测任务中的有效性
ICML 2024 | 时间序列相关论文盘点(附原文源码) 
KDD 2024 | UniST:清华推出首个通用城市时空预测模型,代码数据均已公开
综述 | 一文看懂生成式时序表示与时序大模型
CALF:用于长期时间序列预测的高效跨模态LLM微调框架
SOFTS:新SOTA,纯MLP模型架构实现高效多元时序预测
综述 | 解析生成技术在时空数据挖掘中的应用

FreDF:基于频谱对准的时序模型训练方法,多项任务全面超越SOTA!


觉得不错,那就点个在看和赞吧

时序人
专注于时间序列领域下的科研、工业干货分享,紧跟AI+等领域的科技前沿
 最新文章