点关注,不迷路,用心整理每一篇算法干货~
今天给大家介绍一篇基于检索的时间序列预测方法,借鉴大模型Retrieval-augmented generation (RAG)的思路,构建了时间序列预测领域的Retrieval Augmented Forecasting (RAF)方法。
论文标题:Retrieval Augmented Time Series Forecasting
下载地址:https://arxiv.org/pdf/2411.08249v1
在LLM领域,RAG是一种常见的增强大模型生成能力的方法。通过在外部数据中检索相关的文本信息,结合prompt作为大模型的输入,提升大模型生成结果的质量。
在时间序列预测中,是否也可以应用这种基于检索的建模思路呢?一方面,时间序列也出现了很多类似LLM的基础时间序列模型,如Chronos等,这给尝试RAG在时间序列预测中的应用提供了基础;另一方面时间序列预测本身是一个很困难的问题,序列经常存在大幅度波动,传统的预测方法很难对这些不确定性强的部分进行预测。
基于上述考虑,本文提出了RAG在时间序列预测中的迁移RAF,利用时间序列基础模型实现序列检索,并辅助提升时间序列预测效果,取得了显著的效果提升。
本文整体的建模方法比价简单直接。整体可以分为序列检索和检索增强两个部分。
序列检索:在序列检索部分,将原始的时间序列作为query,并构建一个多领域时间序列数据集,从这个数据集中检索和当前query最相似的时间序列片段。检索方法文中基于时间序列通用模型产出的embedding,计算L2 Norm进行排序,选择L2距离最小的一个时间序列作为检索结果。同时,将这个时间序列片段的未来序列也拼接过来。通过这种方式,形成了一个完整的历史序列+未来序列的检索结果。
检索增强:在得到检索的序列结果后,借鉴in-context learning的思路,将这个历史序列+未来序列的检索结果,拼接到待预测历史序列的前面,整体输入到时间序列基础模型中,进行zero-shot learning等方式的预测。
整体的建模过程如下图所示,基本复用了LLM中的RAG思路,检索相似数据和真实未来结果,作为context拼接到待预测序列前面,再输入到时间序列基础模型中实现in-context learning。
引入RAF的建模思路后,基于Chronos基础时间序列模型进行实验,相比不加RAF会取得稳定的效果提升。
从预测case也可以看出,引入RAF模块后,预测的结果相比base明显更加准确。
投稿&加交流群请加微信,备注机构+方向拉群~