NIPS 2024时间序列工作——公众号已更新文章汇总

科技   2024-10-27 20:19   北京  

点关注,不迷路,用心整理每一篇算法干货~

后台留言”交流“,加入圆圆算法交流群~
👇🏻扫码👇🏻加入圆圆算法知识星球~
已有880+同学加入学习,700+干货笔记)

NIPS 2024放榜,60多篇时间序列相关工作被收录。其中,有很多优秀的工作在放榜前,已经在圆圆的算法笔记公众号中,以及圆圆的算法笔记知识星球中已经更新过。今天给大家汇总一下之前已在公众号更新过的NIPS 2024工作详细解析,方便大家快速学习学习相关论文。

更完整的时序预测干货笔记,可以加入【圆圆的算法笔记知识星球】进一步深入学习。关注我们,及时跟进时序预测最新前沿工作。

1

UniTS:统一时序模型

论文标题:UNITS: A Unified Multi-Task Time Series Model

下载地址https://arxiv.org/pdf/2403.00131

文章链接哈佛大学&MIT联合发布,最新时间序列统一大模型UniTS,秒杀各类时序任务

更新时间:2024.3.9

概述:哈佛和MIT最近联合发表的时间序列大模型工作,构建了一个统一的时间序列模型,能够处理各类时间序列任务,在38种不同的时间序列任务中,有27个都取得了最优效果

2

CCM:聚类解决多元时序预测

论文标题From Similarity to Superiority: Channel Clustering for Time Series Forecasting

下载地址https://arxiv.org/pdf/2404.01340

文章链接耶鲁&斯坦福联合发表,融合channel独立/联合建模提升多元时序预测效果

更新时间:2024.4.17

概述:耶鲁大学和斯坦福大学联合发表的多元时间序列预测工作,重点解决的问题还是最近经常被提及的channel之间的联合建模还是独立建模的问题,提出了一种多channel间关系建模的新方法,通过学习各个channel间的关系,实现channel独立和channel联合建模的融合。

3

FAN:频域归一化方法

论文标题:Frequency Adaptive Normalization For Non-stationary Time Series Forecasting

下载地址https://arxiv.org/pdf/2409.20371

文章链接时序预测数据处理新方法汇总:多粒度和频域的可逆归一化

更新时间:2024.10.6

概述:提出了一种在频域进行可逆归一化的建模方法。其整体建模思路和ReVIN类似,将原始序列通过傅里叶变换映射到频域,在频域中选择topK个主要频率成分,将这些主要频率成分从原始数据中剥离出来,模型只对剩余的平稳季节项的序列进行预测,预测结果再加上主要频率成分进行还原。

4

SOFTS:序列-核心表征融合建模

论文标题SOFTS: Efficient Multivariate Time Series Forecasting with Series-Core Fusion

下载地址https://arxiv.org/pdf/2404.14197

文章链接纯MLP模型达到新SOTA,基于序列-核心表征融合的高效多元时间序列预测

更新时间:2024.6.8

概述:文章旨在解决通道独立方法缺乏对通道之间相关性的利用,以及通道依赖方法不够鲁棒的问题。这篇文章,提出了一种新颖的中心化结构传递不同通道的信息,相比于分布式结构如Attention,Mixer等,这种中心化的结构既降低了计算开销,而且提高了对于异常通道的鲁棒性,以更低的复杂度获得更好的性能。

5

TimeXer—辅助序列提升预测效果

论文标题TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables

下载地址https://arxiv.org/pdf/2402.19072

文章链接近期研究趋势:多变量当辅助序列提升多元时序预测效果

更新时间:2024.3.13

概述TimeXer是清华大学近期发表了一篇工作,以Transformer为基础,通过更细致的建模外部变量建模实现目标变量拟合效果的提升。

6

Self-attention在时序预测真的有效吗

论文标题Are Self-Attentions Effective for Time Series Forecasting?

下载地址https://arxiv.org/pdf/2405.16877

文章链接Self-Attention在时间序列预测中有效吗?新Transformer架构效率效果双提升

更新时间:2024.6.11

概述:探索self-attention在时间序列预测有效性的文章。并提出了一个新的transfirmer时序预测结构,实现效率和效果双提升。

7

Self-attention在时序预测真的有效吗

论文标题Are Language Models Actually Useful for Time Series Forecasting?

下载地址https://arxiv.org/pdf/2406.16964

文章链接预训练大语言模型对时间序列预测真的有用吗?去掉预训练LLM效果反而提升

更新时间:2024.7.1

概述:这篇文章质疑大语言模型在时间序列预测中是否有效,并对目前最先进的3个基于大语言模型的时间序列预测模型进行实验,发现去掉大语言模型部分,改成一个attention网络,也能取得相同甚至更优的效果。

END




后台留言”交流“,加入圆圆算法交流群~
后台留言”星球“,加入圆圆算法知识请星球~【时序预测专题课程持续更新中
知识星球提供一文贯通笔记、经典代码解析、问答服务、新人入门,已有880+小伙伴加入价格随人数增加和内容丰富上涨,感兴趣的同学尽早加入~


投稿&加交流群请加微信,备注机构+方向拉群~

【历史干货算法笔记】
生成式模型入门:一文讲懂3大类生成式模型
Sptial-Temporal时空预测总结:建模思路、优化方法梳理
时序预测顶会论文数据集、数据处理方法、训练方法汇总
时间序列预测实战方法概述:从数据到模型
Informer模型结构和代码解析
基于Transformer的时序预测模型TFT代码详解
时空预测经典模型STGCN原理和代码解读
一网打尽:14种预训练语言模型大汇总
Vision-Language多模态建模方法脉络梳理
花式Finetune方法大汇总
从ViT到Swin,10篇顶会论文看Transformer在CV领域的发展历程

如果觉得有帮助麻烦分享在看点赞~  

圆圆的算法笔记
定期更新深度学习/算法干货笔记和世间万物学习记录~
 最新文章