本文主要是介绍独家原创 | Matlab实现INFO-BiTCN-BiGRU-Attention多输入单输出回归预测,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
独家原创 | Matlab实现INFO-BiTCN-BiGRU-Attention多输入单输出回归预测
目录
- 独家原创 | Matlab实现INFO-BiTCN-BiGRU-Attention多输入单输出回归预测
- 效果一览
- 基本介绍
- 程序设计
- 参考资料
效果一览
基本介绍
1.Matlab实现INFO-BiTCN-BiGRU-Attention向量加权算法优化双向时间卷积双向门控循环单元融合注意力机制多变量回归预测(完整源码和数据),优化学习率,BiGRU的神经元个数,滤波器个数, 正则化参数;
2.输入多个特征,输出单个变量,回归预测,自注意力机制层,运行环境matlab2023及以上;
3.命令窗口输出R2、MAE、MAPE、 RMSE多指标评价;
4.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。
程序设计
- 完整源码和数据获取方式私信博主回复Matlab实现INFO-BiTCN-BiGRU-Attention多输入单输出回归预测。
%% 清空环境变量
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
warning off % 关闭报警信息
%% 导入数据
res = xlsread('data.xlsx');%% 数据分析
num_size = 0.7; % 训练集占数据集比例
outdim = 1; % 最后一列为输出
num_samples = size(res, 1); % 样本个数
res = res(randperm(num_samples), :); % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);%% 数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);%% 格式转换
for i = 1 : M vp_train{i, 1} = p_train(:, i);vt_train{i, 1} = t_train(:, i);
endfor i = 1 : N vp_test{i, 1} = p_test(:, i);vt_test{i, 1} = t_test(:, i);
enddisp('程序运行时间较长,需迭代popsize*maxgen次!可自行调整运行参数')
参考资料
[1] https://blog.csdn.net/kjm13182345320/article/details/129215161
[2] https://blog.csdn.net/kjm13182345320/article/details/128105718
这篇关于独家原创 | Matlab实现INFO-BiTCN-BiGRU-Attention多输入单输出回归预测的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!