点击名片
关注并星标
#TSer#
Transformer 模型已在时间序列预测中展现了卓越的性能。然而,在一些复杂场景中,它倾向于学习数据中的低频特征,而忽略了高频特征,表现出一种频率偏差。这种偏差阻碍了模型准确捕捉重要的高频数据特征。
本文介绍一篇来自 KDD 2024 的论文,这是首篇研究时间序列预测中频率偏差问题的文章。其研究者通过实证分析来理解这种偏差,并发现频率偏差源于模型不成比例地关注具有更高能量的频率特征。基于分析,研究者提出了 Fredformer,这是一个基于 Transformer 的框架,旨在通过在不同频率带之间均衡地学习特征来减轻频率偏差。这种方法防止了模型忽视对准确预测至关重要的低幅特征。广泛的实验表明了这种方法的有效性,在实现了可比性能的同时,参数规模更少,计算成本更低。
论文背景
图1:模型效果对比
问题定义:研究者进行了实证研究,以调查这种偏差是如何被引入到时间序列预测 Transformer 中的。文中观察到,主要原因是关键频率成分之间的比例差异。值得注意的是,这些关键成分在预测的历史数据和真实数据中应该是一致的。此外,研究者还调查了影响去偏的目标和关键设计。
算法设计:Fredformer 有三个关键组件:用于频率带的补丁操作、用于减轻比例差异的子频率独立归一化,以及每个子频率带内的通道注意力,用于公平学习所有频率和注意力去偏。
适用性:Fredformer 采用 Nyström 近似来降低注意力图的计算复杂性,从而实现了具有竞争性能的轻量级模型。这为高效的时间序列预测开辟了新的机会。
理论分析
案例a:
案例b:
模型方法
图3:Fredformer模型框架
Fredformer 模型是通过一系列创新的设计来解决时间序列预测中的频率偏差问题,其架构包括以下主要组件:
01
DFT到IDFT的基础架构
使用离散傅里叶变换(DFT)将输入时间序列分解为频率成分,并通过逆离散傅里叶变换(IDFT)重构预测结果。
首先,模型使用 DFT 将输入的时间序列数据分解成频率系数。然后,通过一个 Transformer 编码器对频率系数进行处理,学习去偏的频率特征。最后,使用 IDFT 将处理后的频率输出重构回时域信号。
02
频率细化与归一化
03
频率局部独立建模
04
频率汇总
实验效果
表1:多变量预测下不同预测长度的表现
表2:所有数据完整测试结果
扫下方二维码,加入时序人学术星球
星球专注于时间序列领域的知识整理,前沿追踪
提供论文合集、视频课程、问答服务等资源
270+篇专栏笔记,已有250+小伙伴加入
价格随着内容丰富而上涨,早入早享优惠哦~
时间序列学术前沿系列持续更新中 ⛳️
后台回复"讨论",加入讨论组一起交流学习 🏃
往期推荐阅读
觉得不错,那就点个在看和赞吧