Fighting,小侠客们好呀,今天为大家带来的甄选论文合集——2024 Time Series Paper S6,包含2024年时间序列领域最新已发表的6篇顶级优秀论文。在信息爆炸的时代,我们面临着大量的数据和复杂的问题,而合集精心挑选最优秀的一批影响力较大的顶会顶刊发表论文,涵盖了各个领域的研究成果,旨在提供一扇通往最前沿研究的窗口,不论您是学者、研究人员还是决策者,这些论文都将为您提供实用的研究方法和宝贵的研究灵感。文末均附有论文PDF&项目源码提取码,合集已发表前沿论文如下:甄选论文涉及Time Series Forecasting(时间序列预测)、Probabilistic Time Series Forecasting(概率时间序列预测)、Time Series Classification(时间序列分类)、Time Series Imputation(时间序列填补)、Time Series Anomaly Detection(时间序列异常检测)、General Time Series Analysis(通用时间序列分析)、Spatio-Temporal Forecasting(时空预测)、Time Series Clustering(时间序列聚类)等多个研究子领域。2024 Time Series Paper S6的主要内容:
1.DiffPLF(EV Charging Load Forecasting)
2. AutoTimes(LLM Time Series Forecasting)
3. Minusformer(Time-Series Modeling)
4. OneShotSTL(Time Series Anomaly Detection)
5. DiffShape(Time-Series Classification)
6. Pathformer(Time Series Forecasting)
Paper:《DiffPLF: A Conditional Diffusion Model for Probabilistic Forecasting of EV Charging Load》
Task:EV Charging Load ForecastingAbstract:由于电动汽车(EV)向配电网的巨大渗透,充电负荷预测对于促进充电站运营和需求侧管理至关重要。然而,随机充电行为和相关的外部因素使得未来的充电负载模式非常不稳定,难以预测。因此,这里设计了一种新的扩散模型,称为DiffPLF,用于电动汽车充电的概率负荷预测,该模型可以明确地近似基于历史数据和相关协变量的预测负荷分布。具体来说,利用去噪扩散模型,该模型可以通过学习扩散过程的反转来逐步转换真实时间序列数据之前的高斯数据。此外,将这种扩散模型与基于交叉注意力的条件机制相耦合,以执行可能的充电需求曲线的条件生成。这里还提出了一种基于任务的微调技术,以更好地将DiffPLF应用于概率时间序列预测任务,并获得更准确可靠的预测区间。最后,进行了多个实验来验证DiffPLF在预测不稳定充电负载的复杂时间模式和基于一定协变量进行可控发电方面的优越性。结果表明,与传统方法相比,DiffPLF的MAE和CRPS分别显著提高了39.58%和49.87%。
Paper:《AutoTimes: Autoregressive Time Series Forecasters via Large Language Models》
Task:LLM Time Series Forecasting
Publication:ArXiv 2024
Abstract:清华大学软件学院THUML出品!由于大规模时间序列的可用性有限以及可扩展预训练的开发不足,时间序列的基础模型尚未完全开发。基于时间序列和自然语言的相似序列结构,越来越多的研究证明了利用大型语言模型(LLM)处理时间序列的可行性。然而,现有的方法可能会忽视时间序列和自然语言的一致性,导致LLM潜力的利用不足。为了充分利用从语言建模中学习到的通用令牌转换,这里建议AutoTimes将LLM重新用作自回归时间序列预测器,这与LLM的获取和利用一致,而无需更新参数。由此产生的预测器可以处理灵活的序列长度,并实现与流行模型一样具有竞争力的性能。此外,本文提出了令牌提示,利用相应的时间戳使我们的方法适用于多模式场景。分析表明,本文的预测器继承了LLM的零样本和上下文学习能力。从经验上讲,AutoTimes表现出显著的方法通用性,并通过基于更大的LLM、额外的文本或时间序列作为指令来实现增强的性能。Paper:《Minusformer: Improving Time Series Forecasting by Progressively Learning Residuals》Task:Time-Series Modeling
Publication:ArXiv 2024
Abstract:在本文中,我们发现泛在时间序列(TS)预测模型容易出现严重的过拟合。为了解决这个问题,我们采用了一种去冗余方法,以逐步恢复TS的内在值,用于未来的区间。具体来说,我们通过将信息聚合机制从加法重新定向到减法来翻新vanilla Transformer。然后,我们在原始模型的每个块中加入一个辅助输出分支,以构建一条通向最终预测的高速公路。该分支中后续模块的输出将减去先前学习的结果,使模型能够逐层学习监督信号的残差。这种设计有助于学习驱动的输入流和输出流的隐式渐进分解,使模型具有更高的通用性、可解释性和抗过拟合的弹性。由于模型中的所有聚合都是减号,因此称为Minusformer。大量实验表明,所提出的方法优于现有的最先进的方法,在各种数据集上的平均性能提高了11.9%。