2024 Time Series Paper S4(含源码)

教育   科技   2024-04-21 17:49   上海  

点击“算法数据侠”,“星标”公众号
阅读今日所有推文,汇聚好运召唤神龙
Fighting,小侠客们好呀,今天为大家带来的甄选论文合集——2024 Time Series Paper S4,包含2024年时间序列领域最新发表的6篇顶级优秀论文。在信息爆炸的时代,我们面临着大量的数据和复杂的问题,而合集精心挑选最优秀的一批影响力较大的顶会顶刊发表论文,涵盖了各个领域的研究成果,旨在提供一扇通往最前沿研究的窗口,不论您是学者、研究人员还是决策者,这些论文都将为您提供实用的研究方法和宝贵的研究灵感。文末均附有论文PDF&项目源码提取码,合集已发表前沿论文如下:
1. 2023 Time Series Paper S1
2. 2023 Time Series Paper S2
3. 2023 Time Series Paper S3
4. 2023 Time Series Paper S4
5. 2023 Time Series Paper S5
6. 2024 Time Series Paper S1
7. 2024 Time Series Paper S2
8. 2024 Time Series Paper S3
甄选论文涉及Time Series Forecasting(时间序列预测)、Probabilistic Time Series Forecasting(概率时间序列预测)、Time Series Classification(时间序列分类)、Time Series Imputation(时间序列填补)、Time Series Anomaly Detection(时间序列异常检测)、General Time Series Analysis(通用时间序列分析)、Spatio-Temporal Forecasting(时空预测)、Time Series Clustering(时间序列聚类)等多个研究子领域。
本期内容堪称丰富,除了用于电价预测的最新Transformer方法,还有Harvard University最新发布的统一时间序列模型UniTS,Diffusion扩散模型用于时间序列生成的Diffusion-TS,更有最近爆火的状态空间模型Mamba用于时间序列预测的TimeMachine和SiMBA。2024 Time Series Paper S4包含的前沿时间序列算法如下:

1. epf-transformers(Electricity Price Forecasting)

2. UniTS(Unified Time Series Modeling)

3. Chronos(LLM Time Series Forecasting)

4. TimeMachine(Long-term Time Series Forecasting)

5. SiMBA(Mamba-based Time series Forecasting

6. Diffusion-TS(Time Series Generation)

01

epf-transformers

Paper:A Transformer approach for Electricity Price Forecasting

Task:Electricity Price Forecasting

Publication:ArXiv 2024

Abstract提出了一种完全基于Transformer模型进行电价预测的新方法。与其他替代方案相反,没有将其他递归网络与注意力机制结合使用。因此,显示注意力层足以捕捉时间模式。本文还使用开源EPF工具箱对模型进行了公平的比较,并提供了增强EPF研究的可重复性和透明度的代码。结果表明,变压器模型优于传统方法,为电力系统的可靠和可持续运行提供了一个有前景的解决方案。

02
UniTS

Paper:《UniTS: Building a Unified Time Series Model

Task:Unified Time Series Modeling

Publication:ArXiv 2024

Abstract:基础模型,尤其是LLM,正在深刻地改变深度学习。我们可以通过少提示或微调将单个预训练的模型适应于许多任务,而不是训练许多特定任务的模型。然而,当前的基础模型适用于序列数据,但不适用于时间序列,这带来了独特的挑战,因为固有的多样性和多领域时间序列数据集,预测、分类和其他类型任务的任务规范不同,以及对任务专用模型的明显需求。我们开发了UniTS,这是一个统一的时间序列模型,支持通用的任务规范,包括分类、预测、插补和异常检测任务。这是通过一种新的统一网络主干来实现的,该主干将序列和变量注意力与动态线性算子相结合,并作为统一模型进行训练。在38个多域数据集中,与特定任务的模型和重新调整用途的基于自然语言的LLM相比,UniTS表现出卓越的性能。在评估新的数据域和任务时,UniTS表现出显著的零样本、少样本和快速学习能力。
03
Chronos
Paper:Chronos: Learning the Language of Time Series

Task:LLM Time Series Forecasting

Publication:ArXiv 2024

Abstract:Amazon出品!这里我们将介绍Chronos,一个简单而有效的预训练概率时间序列模型框架。Chronos使用缩放和量化将时间序列值标记为固定词汇表,并通过交叉熵损失在这些标记的时间序列上训练现有的基于转换器的语言模型架构。我们在大量公开可用的数据集上预训练了基于T5系列(参数范围从20M到710M)的Chronos模型,并辅以我们通过高斯过程生成的合成数据集,以提高泛化能力。在由42个数据集组成的综合基准中,包括经典的局部模型和深度学习方法,我们发现Chronos模型:(a)在作为训练语料库一部分的数据集上显著优于其他方法;和(b)相对于专门针对新数据集训练的方法,在新数据集上具有可比且偶尔优越的零样本性能。我们的研究结果表明,Chrono模型可以利用来自不同领域的时间序列数据,提高未发现预测任务的零样本精度,将预训练模型定位为一种可行的工具,以大大简化预测管道。
04
TimeMachine

算法数据侠
Hi, 今日的你比昨日更优秀!算法数据侠致力于最全最优质的AI算法与数据集分享,不定期更新AI算法/数据集、竞赛TOP方案和前沿学术速递,期待各位小侠客共勉!
 最新文章