广发证券首席金工分析师 安宁宁
SAC: S0260512020003
anningning@gf.com.cn
广发证券资深金工分析师 陈原文
SAC: S0260517080003
chenyuanwen@gf.com.cn
联系人:广发证券金工研究员 林涛
gflintao@gf.com.cn
广发金工安宁宁陈原文团队
AI看图:
股价预测之多模态多尺度:
对比提升:
超额表现:
与Barra风格因子相关性:
展望:
风险提示:
(1)本文所述模型用量化方法通过历史数据统计、建模和测算完成,所得结论与规律在市场政策、环境变化时存在失效风险;(2)本文策略在市场结构及交易行为改变时有可能存在失效风险;(3)因量化模型不同,本文提出的观点可能与其他量化模型结论存在差异。
一、AI看图
AI看图采用基于深度学习的图像识别技术,将价量数据图表与未来股价走势进行建模,以实现股价预测,整体模型结构如下图1所示。
二、多模态多尺度股价预测模型
(一)模型结构
本文以“多模态、多尺度”为题,基于AI看图初始版本模型进行了大幅改进,新的模型结构如下图2所示。本文模型在日度价量数据图表的基础上,加入了高频因子数据、日频时序数据、周度价量数据图表,采用4个独立的深度时序模型和深度卷积模型进行多模态、多尺度的特征提取,并同时采用回归损失和分类损失以端到端的方式进行模型训练,有效提升了模型对未来股价的预测能力。
(二)改进思路
(4)多头输出:在本文模型的输出端,包含了两个分支。其中一个分支以未来股价的绝对收益作为学习目标;另一个分支则以未来股价的涨、平、跌三类别作为学习目标。在训练过程中,两个分支分别以均方误差和交叉熵作为损失函数,两个损失在加总后以端到端的方式进行梯度回传。在模型训练完毕的样本外预测阶段,通过同时结合两个分支的预测结果,提升了模型的股价预测准确率,从而使得股票组合获得更为客观的超额收益。
三、实证分析
(二)对比提升
以2020/01/01~2024/10/31作为样本外回测区间,以20日作为换仓周期,本文模型预测结果在全市场、沪深300、中证500、中证800、中证1000、国证2000、创业板的RankIC均值分别为8.7%、7.9%、6.6%、6.9%、8.2%、8.7、10.4%,RankIC胜率分别为86.7%、69.0%、73.5%、75.2%、84.8%、86.1%、89.2%。以全市场作为回测统计口径,对比AI看图初始版本,本文模型的RankIC均值提升了3.0%,RankIC胜率提升了7.8%。
(三)本文模型因子与Barra风格因子相关性
本文模型因子与Barra风格因子的相关系数如下表所示。整体而言,本文模型因子与Barra风格因子的相关性较低,其中相关性最高的三个Barra风格因子为流动性因子、波动率因子和市值因子,相关系数分别为-18%、-16%和-8%。
(四)实证分析(全市场)
(五)实证分析(沪深300)
(六)实证分析(中证500)
本文模型在中证800的样本外回测表现如下图表所示。本文模型因子在中证800的10分档收益单调性显著,RankIC历史均值为6.9%、胜率为75.2%。2020年~2024年10月期间,双边千三计费后的多头年化收益率为9.43%,相比同期的中证800指数取得了8.38%的超额年化收益率。
(八)实证分析(中证1000)
(九)实证分析(国证2000)
(十)实证表现(创业板)
四、卷积模型与时序模型
(一)循环神经网络
循环神经网络(Recurrent Neural Network,RNN)是一类以序列数据为输入,在序列的演进方向进行递归且所有节点(循环单元)按链式连接的递归神经网络。尽管循环神经网络演进出了长短期记忆(Long Short-Term Memory,LSTM)、门控循环单元(Gated Recurrent Units,GRU)等多种形式,但其基本结构相同,如下图所示。假设该网络以一组包含价格和交易量的二维序列数据为输入,循环神经网络节点首先将初始化的隐藏层状态(Hidden State)h0和第一个时间节点上的价格和交易量数据(即0.08和1000)作为输入,在信息处理后输出下一个隐藏层状态h1。随后在下一个节点的计算中,则以上一个隐藏层状态h1和第二个时间节点上的价格和交易量数据(即-0.03和8000)作为输入,然后输出下一个隐藏层状态h2,如此进行直至处理完输入中的最后一个时间节点的数据。在处理完所有数据后,通常将最后一个隐藏层状态hn作为最终输出,使用一个前馈神经网络(Feedforward neural network)对其进行降维后与未来股价走势进行建模,以此来实现模型的训练和回测。
(二)Transformer模型
Transformer是近年来受到广泛研究和应用的一种时序模型,其通过多头注意力机制(Multi-Head Attention)来捕获输入时序数据中的前后关系,结构如下图所示。与传统的循环神经网络相比,Transformer克服了短期记忆的缺点,具有能建模超长序列数据之间关系的能力。此外,Transformer能够并行化处理数据,替代了传统循环神经网络递归式处理数据的范式,大大提高了运算速度。
(三)卷积神经网络
1998年,Yann LeCun等人在LeNet的基础上构建了更加完备的卷积神经网络LeNet-5。LeNet-5结构如下图所示,其定义了现代卷积神经网络的基本结构。LeNet-5在手写数字识别任务上的成功使得卷积神经网络得到了广泛关注。2003年,微软基于卷积神经网络开发了光学字符读取(Optical Character Recognition,OCR)系统。
以图像识别中最经典的卷积神经网络VGG16为例,其共包含了13个卷积层、3个全连接层、3个最大值池化层以及一个softmax分类层,结构如下图所示。下面对卷积神经网络中的主要部分进行介绍。
1. 卷积层
卷积层进行的是卷积(Convolution)即乘加运算,其目的与传统图像处理中的滤波器运算相似。如下图所示,将卷积核与输入数据进行卷积运算。在这个例子中,输入数据和卷积核都是有长和高的二维矩阵,输入的大小为(4,4),卷积核的大小为(3,3),输出的大小为(2,2)。如图中所示,在每个位置上将卷积核的元素与输入的元素相乘再求和,即乘积累加运算。然后将经过卷积核的运算结果输出到相应的位置。在逐次将卷积核与输入数据进行卷积运算并加上偏置量后即得到卷积层的输出。
由于模型运算的需要,通常在卷积运算前会通过填充(adding)操作向输入数据的周围填入固定的数值(比如0等)。如图8所示,将幅度为1的填充操作应用于输入大小为(4,4)的数据。经过填充后的输入数据大小变为(6,6),将其与(3,3)的卷积核进行卷积运算得到(4,4)的输出数据。
卷积的运算间隔称为步幅(Stride)。若步幅由1变为2,卷积操作则如图9所示,即运算间隔变为两个元素。
2. 池化层
池化(Pooling)操作具有平移不变性、旋转不变性和尺度不变性,可以起到降维、去除冗余信息的作用,从而达到降低网络复杂度、减小计算量的目的。此外,池化本身可以实现非线性运算,还可以提高模型的鲁棒性。池化通常包括两种:最大值池化(Max Pooling)和平均池化(Average Pooling)。最大值池化是从目标区域中取出最大值,平均池化则是计算目标区域中的平均值,在目标检测领域通常使用最大值池化。图10是一个以步幅为2的2×2最大值池化运算示意图,其中2 x 2 代表目标区域的大小。其2×2窗口的移动间隔为2个元素,从其中取出最大的元素。
五、总结与展望
本报告以研发为主要目的,对模型进行了严谨的训练、验证、以及回测。其中,训练样本为2008~2016年数据,验证样本为2017~2019年数据,回测样本为2020~2024年数据。从理论上来说,通过加入更新、更多的训练样本,结合滚动训练等方式,能够进一步提升模型对未来股价的预测能力,取得更为显著的超额收益。
六、风险提示
法律声明:
本微信号推送内容仅供广发证券股份有限公司(下称“广发证券”)客户参考,其他的任何读者在订阅本微信号前,请自行评估接收相关推送内容的适当性,广发证券不会因订阅本微信号的行为或者收到、阅读本微信号推送内容而视相关人员为客户。
完整的投资观点应以广发证券研究所发布的完整报告为准。完整报告所载资料的来源及观点的出处皆被广发证券认为可靠,但广发证券不对其准确性或完整性做出任何保证,报告内容亦仅供参考。
在任何情况下,本微信号所推送信息或所表述的意见并不构成对任何人的投资建议。除非法律法规有明确规定,在任何情况下广发证券不对因使用本微信号的内容而引致的任何损失承担任何责任。读者不应以本微信号推送内容取代其独立判断或仅根据本微信号推送内容做出决策。
本微信号推送内容仅反映广发证券研究人员于发出完整报告当日的判断,可随时更改且不予通告。
本微信号及其推送内容的版权归广发证券所有,广发证券对本微信号及其推送内容保留一切法律权利。未经广发证券事先书面许可,任何机构或个人不得以任何形式翻版、复制、刊登、转载和引用,否则由此造成的一切不良后果及法律责任由私自翻版、复制、刊登、转载和引用者承担。