真香!注意力机制+时空融合!组合双向集成学习预测!CNN-GRU-Attention-Adaboost多变量负荷预测

文摘   2024-11-11 22:13   广东  

读完需要

6
分钟

速读仅需 2 分钟

请尊重原创劳动成果
转载请注明本文链接
及文章作者:机器学习之心

点击阅读原文或复制以下链接到浏览器获取文章完整源码和数据:

https://mbd.pub/o/bread/mbd-ZpqYl5ty

摘要:真香!注意力机制+时空融合!组合双向集成学习预测!CNN-GRU-Attention-Adaboost多变量负荷预测

1

   

基本介绍

1.Matlab实现CNN-GRU-Attention-Adaboost时间序列预测,卷积门控循环单元注意力机制结合AdaBoost多变量时间序列预测(负荷预测);注意力机制+时空特征融合!组合模型集成学习预测!CNN-GRU-Attention-Adaboost多变量负荷预测;

CNN-GRU-Attention-AdaBoost是一种将CNN-GRU-Attention和AdaBoost两种机器学习技术结合起来使用的方法,旨在提高模型的性能和鲁棒性。具体而言,AdaBoost则是一种集成学习方法,它将多个弱学习器组合起来形成一个强学习器,其中每个学习器都是针对不同数据集和特征表示训练的。CNN-GRU-Attention-AdaBoost算法的基本思想是将CNN-GRU-Attention作为基模型,利用AdaBoost算法对其进行增强。具体而言,我们可以训练多个CNN-GRU-Attention模型,每个模型使用不同的数据集和特征表示,然后将它们的预测结果组合起来,形成一个更准确和鲁棒的模型。

2.运行环境为Matlab2023b;

3.data为数据集,excel数据,多输入单输出时间序列数据,main.m为主程序,运行即可,所有文件放在一个文件夹;
4.命令窗口输出R2、MAE、MAPE、MSE、RMSE多指标评价;

购买后可加博主QQ1153460737咨询交流。注意:其他非官方渠道购买的盗版代码不含模型咨询交流服务,大家注意甄别,谢谢。


2

   

2.1

数据集

   

   

2.2

运行效果

   

完整代码链接:https://mbd.pub/o/bread/mbd-ZpqYl5ty

也可扫描二维码:

3


   

部分源码

%%  清空环境变量warning off             % 关闭报警信息close all               % 关闭开启的图窗clear                   % 清空变量clc                     % 清空命令行


P_train = res(1: num_train_s, 1: f_)';T_train = res(1: num_train_s, f_ + 1: end)';M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';T_test = res(num_train_s + 1: end, f_ + 1: end)';N = size(P_test, 2);% 数据归一化[p_train, ps_input] = mapminmax(P_train, 0, 1);p_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);t_test = mapminmax('apply', T_test, ps_output);
%% 数据平铺
for i = 1:size(P_train,2) trainD{i,:} = (reshape(p_train(:,i),size(p_train,1),1,1));end
for i = 1:size(p_test,2) testD{i,:} = (reshape(p_test(:,i),size(p_test,1),1,1));end

targetD = t_train;targetD_test = t_test;
numFeatures = size(p_train,1);

layers0 = [ ... % 输入特征 sequenceInputLayer([numFeatures,1,1],'name','input') %输入层设置 sequenceFoldingLayer('name','fold') %使用序列折叠层对图像序列的时间步长进行独立的卷积运算。 % CNN特征提取 convolution2dLayer([3,1],16,'Stride',[1,1],'name','conv1') %添加卷积层,64,1表示过滤器大小,10过滤器个数,Stride是垂直和水平过滤的步长 batchNormalizationLayer('name','batchnorm1') % BN层,用于加速训练过程,防止梯度消失或梯度爆炸 reluLayer('name','relu1') % ReLU激活层,用于保持输出的非线性性及修正梯度的问题 % 池化层 maxPooling2dLayer([2,1],'Stride',2,'Padding','same','name','maxpool') % 第一层池化层,包括3x3大小的池化窗口,步长为1,same填充方式 % 展开层 sequenceUnfoldingLayer('name','unfold') %独立的卷积运行结束后,要将序列恢复 %平滑层 flattenLayer('name','flatten') gruLayer(25,'Outputmode','last','name','hidden1') dropoutLayer(0.1,'name','dropout_1') % Dropout层,以概率为0.2丢弃输入 selfAttentionLayer(2,16,"Name","selfattention") % 多头自注意力机制层 fullyConnectedLayer(1,'name','fullconnect') % 全连接层设置(影响输出维度)(cell层出来的输出层) % regressionLayer('Name','output') ]; lgraph0 = layerGraph(layers0);lgraph0 = connectLayers(lgraph0,'fold/miniBatchSize','unfold/miniBatchSize');


4

   

其他代码

嗯,细心的你会发现:https://mbd.pub/o/slowtrain/work

博客专家认证,机器学习领域创作者,2023博客之星TOP50,主做机器学习和深度学习时序、回归、分类、聚类和降维等程序设计和案例分析。

技术交流群:购买博主任意代码或分享博主博文到任意三方平台后即可添加博主QQ进群


机器学习之心HML
机器学习和深度学习时序、回归、分类和聚类等程序设计与案例分析,CSDN博主机器学习之心,知乎、B站同名,由于博主公众号名称被别人占用,故加了HML,此号是官方账号,其余打着本人旗号做事本人概不负责,本人QQ1153460737。
 最新文章