读完需要
速读仅需 2 分钟
请尊重原创劳动成果
转载请注明本文链接
及文章作者:机器学习之心
摘要:Transformer专栏! | 一次订阅,永久更新
1
购买后可加博主QQ1153460737咨询交流。注意:其他非官方渠道购买的盗版代码不含模型咨询交流服务,大家注意甄别,谢谢。
2
专栏目录
完整专栏扫描二维码:
3
import torch
import torch.nn as nn
import torch.nn.functional as F
import math
import numpy as np
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import torch
import torch.nn as nn
from torch.optim import Adam
from torch.utils.data import Dataset, DataLoader
from sklearn.metrics import r2_score, mean_squared_error, mean_absolute_error
from sklearn.preprocessing import MinMaxScaler
from tqdm import tqdm
# 解决画图中文显示问题
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False
# 输入的历史look_back步,和预测未来的T步
look_back = 10
T = 1
epochs = 30 # 迭代次数
num_features = 6 # 输入特证数
embed_dim = 32 # 嵌入维度
dense_dim = 128 # 隐藏层神经元个数
num_heads = 4 # 头数
dropout_rate = 0.1 # 失活率
num_blocks = 3 # 编码器解码器数
learn_rate = 0.0001 # 学习率
batch_size = 32 # 批大小
# 读取数据
dataset = pd.read_excel('2019feng.xlsx', usecols=[0, 1, 2, 3, 4, 5])
dataX = dataset.values
dataY = dataset['gonglv'].values
# 归一化数据
scaler1 = MinMaxScaler(feature_range=(0, 1))
scaler2 = MinMaxScaler(feature_range=(0, 1))
data_X = scaler1.fit_transform(dataX)
data_Y = scaler2.fit_transform(dataY.reshape(-1, 1))
————————————————
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/kjm13182345320/article/details/142033231
4
嗯,细心的你会发现:https://mbd.pub/o/slowtrain/work
博客专家认证,机器学习领域创作者,2023博客之星TOP50,主做机器学习和深度学习时序、回归、分类、聚类和降维等程序设计和案例分析。科研课题模型定制/横向项目模型仿真/职称学术论文辅导/模型程序讲解均可联系本人唯一QQ1153460737(其他均为盗版,注意甄别)
技术交流群:购买博主任意代码或分享博主博文到任意三方平台后即可添加博主QQ进群