本文主要是介绍一个BP的完整代码实现(供参考与收藏),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
原文来自 老饼玩转-BP神经网络http://bp.bbbdata.com/teach#100
目录
一、代码思路简介
二、主体代码
三、附加代码:表达式打印
本文展示一个完整的BP神经网络训练例子,包含归一化、训练与测试数据分割、BP网络训练、训练结果与测试结果展示,和最后提取模型的数学表达式共6个完整步骤(使用matlab2014b)。
作为一个完整的base Demo供参考和学习。
一、代码思路简介
本例从 中采取100个样本建立BP神经网络,然后与原函数进行比较。
步骤包括
(1)数据生成
(2)数据归一化
(3)训练测试数据分割
(4)网络训练
(5)展示训练结果
(6)泛化检验-测试数据的测试结果
(7)模型的使用
(8)提取模型的表达式
(9)模型表达式的反归一化
附加:模型表达式的打印。
运行结果如下
训练得到的模型表达式
13.8247*tansig(-0.94451*x1+0.33945*x2+2.1889)+18.6309*tansig(0.38004*x1+0.38706*x2+0.095989)-15.5021*tansig(0.7589*x1-0.06713*x2+2.0389)+1.6125
二、主体代码
clear all;close all ;
%------------------原始数据-----------------------------------
x1 = linspace(-3,3,100); % 在[-3,3]之间线性生成100个数据
x2 = linspace(-2,1.5,100); % 在[-2,1.5]之间线性生成100个数据
y = 10*sin(x1)+0.2*x2.*x2; % 生成yinputData = [x1;x2]; % 将x1,x2作为输入数据
outputData = y; % 将y作为输出数据%--------------数据预处理:归一化-------------------------------
%由于有归一化,必须先将归一化信息抓取出来
iMax = max(inputData,[],2);
iMin = min(inputData,[],2);
oMax = max(outputData,[],2);
oMin = min(outputData,[],2);normInputData=2*(inputData -repmat(iMin,1,size(inputData,2)))./repmat(iMax-iMin,1,size(inputData,2)) -1;
normOutPutData=2*(outputData -repmat(oMin,1,size(outputData,2)))./repmat(oMax-oMin,1,size(outputData,2)) -1;%---------------数据预处理:预留检验数据----------------------------------
randIndex = randperm(100);
trainIndex = sort(randIndex(1:80)); % 随机选出80个数据作为训练数据(这里先选出数据的序号)
testIndex = sort(randIndex(81:100)); % 将剩下的20个数据作为检验数据(这里先选出数据的序号)inputData_train = normInputData(:,trainIndex); % 根据序号选出80个用于训练的输入
inputData_test = normInputData(:,testIndex); % 根据序号选出20个用于检验的输入
outputData_train = normOutPutData(:,trainIndex); % 根据序号选出80个用于训练的输出
outputData_test = normOutPutData(:,testIndex); % 根据序号选出20个用于检验的输出%----------------网络训练 -----------------------------------------------
%使用用输入输出数据(inputData_train、outputData_train)建立网络,隐节点个数设为3.其中输入层到隐层、隐层到输出层的节点分别为tansig和purelin,使用trainlm方法训练。
net = newff(inputData_train,outputData_train,3,{'tansig','purelin'},'trainlm');%设置一些常用参数
net.trainparam.goal = 0.00001; % 训练目标:均方误差低于0.0001
net.trainparam.show = 400; % 每训练400次展示一次结果
net.trainparam.epochs = 15000; % 最大训练次数:15000.[net,tr] = train(net,inputData_train,outputData_train); % 调用matlab神经网络工具箱自带的train函数训练网络%----------训练数据的拟合效果-----------------------------
figure;
%训练数据的拟合效果
simout_train = sim(net,inputData_train);
subplot(2,1,1);
title('训练数据的拟合效果')
hold on
t=1:length(simout_train);
plot(t,outputData_train,t,simout_train,'r')%画图,对比原来的y和网络预测的y%检验数据的拟合效果
simout_test = sim(net,inputData_test);
subplot(2,1,2);
title('未训练数据的拟合效果')
hold ont=1:length(simout_test);
plot(t,outputData_test,t,simout_test,'r')%画图,对比原来的y和网络预测的y%-----------------------真正使用时的流程--------------------
X= [-2.9;-1.9]; % 要预测的X
normX=2*(X -iMin)./(iMax-iMin) -1; % 对X归一化
normSimY = sim(net,normX); % 用网络预测
simy = (normSimY+1).*(oMax-oMin)./2 + oMin; % 对结果反归一%----------------------提取表达式(对应归一化数据)------------------------------------
%提取权重
w12 = net.iw{1,1}; % 第1层(输入层)到第2层(隐层)的权值
b2 = net.b{1}; % 第2层(隐层)的神经元阈值w23 = net.lw{2,1}; % 第2层(输入层)到第3层(输出层)的权值
b3 = net.b{2}; % 第3层(输出层)的神经元阈值%对应的数学表达式:
sim_y_norm = w23 *tansig( w12 *inputData + repmat(b2,1,size(inputData,2))) + repmat(b3,1,size(inputData,2));%----------------------提取表达式(对应原始数据)------------------------------------
%权重反归一化
W12 = w12 * 2 ./repmat(iMax' -iMin',size(w12,1),1);
B2 = -w12* (2*iMin ./(iMax - iMin) + 1) + b2;W23 = w23 .*repmat((oMax -oMin),1,size(w23,2))/2;
B3 = (oMax -oMin) .*b3 /2 + (oMax -oMin)/2 + oMin;%最终的数学表达式:
sim_y = W23 *tansig( W12 *inputData + repmat(B2,1,size(inputData,2))) + repmat(B3,1,size(inputData,2));%数学表达式与工具箱预测结果的比较
net_sim_y = sim(net,normInputData);
net_sim_y=(net_sim_y+1).*(oMax-oMin)./2 + oMin; % 对结果反归一
formula_err=max(max(abs(net_sim_y - sim_y)));
三、附加代码:表达式打印
加入以下一段,可以打印表达式(仅为参考DEMO,非通用函数)
[hn,xn] = size(W12);%隐节点个数,输入个数
f_str = '';
for i=1:hncur_tansig = [num2str(W23(i)),'*tansig('];if(i>1 && W23(i)>0)cur_tansig =['+',cur_tansig] ;endfor j = 1: xnsign_str = '';if(j>1 && W12(i,j)>0 )sign_str='+';endcur_tansig = [cur_tansig,sign_str,num2str(W12(i,j)),'*x',num2str(j)];endsign_str = '';if( B2(i)>0 )sign_str='+';endcur_tansig = [cur_tansig,sign_str,num2str(B2(i)),')'];f_str= [f_str,cur_tansig];
end
sign_str = '';
if( B3>0 )sign_str='+';
end
f_str=[f_str,sign_str,num2str(B3)]
运行结果:
13.8247*tansig(-0.94451*x1+0.33945*x2+2.1889)+18.6309*tansig(0.38004*x1+0.38706*x2+0.095989)-15.5021*tansig(0.7589*x1-0.06713*x2+2.0389)+1.6125
相关文章
《BP神经网络梯度推导》
《BP神经网络提取的数学表达式》
《一个BP的完整建模流程》
这篇关于一个BP的完整代码实现(供参考与收藏)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!