KDD 2024 | 时间序列相关论文盘点(附原文源码)

科技   2024-08-27 08:31   中国  

点击名片

关注并星标

#TSer#


ACM SIGKDD (Conference on Knowledge Discovery and Data Mining, KDD)是世界数据挖掘领域的最高级别的国际会议,由ACM(Association of Computing Machinery,计算机学会)的数据挖掘及知识发现专委会(SIGKDD)负责协调筹办,被中国计算机协会荐为A类会议。



自1995年以来,KDD 已经以大会的形式连续举办了二十余届全球峰会,作为数据挖掘领域最顶级的学术会议,KDD 大会以论文接收严格闻名,每年的接收率维持在 20% 左右,因此颇受行业关注。

今年 KDD 发布论文接收结果:本届会议共吸引了 2046 篇研究论文投稿,应用数据科学论文共收到 738 篇投稿,接收率为 20%,相比去年大幅下降。完整的接收列表可以访问下面链接获取。


  • https://kdd2024.kdd.org/research-track-papers/

  • https://kdd2024.kdd.org/applied-data-science-track-papers/


本文梳理 KDD2024 有关时间序列领域的最新研究成果,一共 53 篇,供大家参考。

  • 时间序列:25篇
      预测:14篇
      异常检测:5篇
      分类:4篇
      插补:2篇
  • 因果分析:1篇
  • 可解释建模:2篇
  • 时间图神经网络:5篇
  • 表示学习:2篇
  • 半监督学习:1篇
  • 增量学习:1篇
  • 时序数据集:1篇
  • 时空分析:11篇
  • 工业应用:4篇


扫下方二维码,加入时序人学术星球
您将直接订阅顶会时序论文盘点全集

星球内整理有历年顶会时间序列论文,包括PDF原文、代码以及解读,帮助您轻松跟踪时间序列领域的最新研究成果。目前已更新 220+ 条内容,6 个专栏,涵盖时序视频课程顶会论文合集每周学术速读精选问答等内容,提供专注于时间序列科研与产业的最前沿学习资料。

目前已有 220+ 同行小伙伴加入。星球价格随内容丰富度和成员数的增加而上涨,越早加入越划算,福利多多,欢迎感兴趣的同学加入~



时间序列


01

预测 


Generative Pretrained Hierarchical Transformer for Time Series Forecasting

【论文地址】https://arxiv.org/abs/2402.16516

【论文源码】https://github.com/icantnamemyself/gpht

【论文摘要】近年来,人们一直致力于通过引入先进的网络架构和自监督预训练策略来提高时间序列预测的准确性。然而,现有的方法仍然存在两个关键的缺点。首先,这些方法往往依赖于单一的数据集进行训练,由于训练数据的规模有限,限制了模型的泛化能力。其次,广泛采用的一步生成方案需要定制化的预测头,并且忽略了输出序列中的时间依赖性,同时在不同预测范围长度设置下也会导致训练成本的增加。为了解决这些问题,我们提出了一种新的用于预测的生成性预训练分层Transformer架构,命名为GPHT。GPHT的关键设计有两个方面。一方面,我们主张在通道独立的假设下构建混合数据集来预训练我们的模型,该数据集包含了来自不同数据场景的各种数据集。这种方法显著扩大了训练数据的规模,使我们的模型能够发现时间序列数据中的共性,并有助于更好地迁移到特定的数据集上。另一方面,GPHT采用自回归预测方法,有效地对输出序列中的时间依赖性进行建模。重要的是,它不需要定制化的预测头,使得单个模型能够在任意预测范围设置下进行预测。我们在八个数据集上与主流的自监督预训练模型和监督模型进行了充分的实验。结果表明,GPHT在传统的长期预测任务中的各种微调、零样本/少样本学习设置下均优于基线模型。


Fredformer: Frequency Debiased Transformer for Time Series Forecasting

【论文地址】https://arxiv.org/abs/2406.09009

【论文源码】https://github.com/chenzRG/Fredformer

【论文摘要】Transformer模型在时间序列预测中表现出卓越的性能。然而,在某些复杂场景下,它倾向于学习数据中的低频特征而忽略高频特征,表现出频率偏差。这种偏差阻碍了模型准确捕获重要的高频数据特征。在本文中,我们进行了实证分析以理解这种偏差,并发现频率偏差是由于模型不成比例地关注能量更高的频率特征所致。基于我们的分析,我们对这种偏差进行了阐述,并提出了Fredformer,这是一个基于Transformer的框架,旨在通过学习不同频带中的特征来减轻频率偏差。这种方法防止了模型忽视对于准确预测至关重要的低振幅特征。广泛的实验证明了我们提出方法的有效性,该方法在不同现实世界时间序列数据集中能够超越其他基线方法。此外,我们还介绍了Fredformer的一个轻量级变体,该变体通过注意力矩阵近似实现,在保持相近性能的同时大幅减少了参数数量和计算成本。


Addressing Prediction Delays in Time Series Forecasting: A Continuous GRU Approach with Derivative Regularization

【论文地址】https://arxiv.org/abs/2407.01622

时序人
专注于时间序列领域下的科研、工业干货分享,紧跟AI+等领域的科技前沿
 最新文章