读完需要
速读仅需 2 分钟
请尊重原创劳动成果
转载请注明本文链接
及文章作者:机器学习之心
摘要:强势改进!TCN-Transformer时间序列预测
1
基本介绍
TCN是一种专门用于处理时间序列数据的深度神经网络。它通过因果卷积和膨胀卷积的组合,有效捕获数据中的长期依赖关系。TCN的核心优势在于其能够并行处理多个时间步的输入,提高模型的训练和推理速度。
Transformer是一种基于自注意力机制的序列建模方法,最初在自然语言处理领域取得巨大成功。它通过自注意力机制建模序列中不同位置之间的依赖关系,捕捉全局上下文信息。Transformer的并行处理能力使其在处理长序列时具有显著优势。
输入层:接收多特征变量时间序列数据。
TCN层:利用因果卷积和膨胀卷积提取数据的全局空间特征。
Transformer层:通过自注意力机制捕捉数据的长期依赖关系,提取时序特征。
注意力融合层:将TCN和Transformer提取的特征作为输入,通过注意力机制融合时空特征。
全连接层:将融合后的特征映射到输出层,进行高精度预测。
2
数据集
2.2
运行效果
完整代码链接:https://mbd.pub/o/bread/mbd-Zp6alppy
也可扫描二维码:
3
%% 清空环境变量
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%% 数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
%% 数据平铺
P_train = double(reshape(P_train, f_, 1, 1, M));
P_test = double(reshape(P_test , f_, 1, 1, N));
t_train = t_train';
t_test = t_test' ;
%% 数据格式转换
for i = 1 : M
p_train{i, 1} = P_train(:, :, 1, i);
end
for i = 1 : N
p_test{i, 1} = P_test( :, :, 1, i);
end
嗯,细心的你会发现:https://mbd.pub/o/slowtrain/work
博客专家认证,机器学习领域创作者,2023博客之星TOP50,主做机器学习和深度学习时序、回归、分类、聚类和降维等程序设计和案例分析。科研课题模型定制/横向项目模型仿真/职称学术论文辅导/模型程序讲解均可联系本人唯一QQ1153460737(其他均为盗版,注意甄别)
技术交流群:购买博主任意代码或分享博主博文到任意三方平台后即可添加博主QQ进群