一个BP的完整代码实现(供参考与收藏)

2023-10-21 10:40

本文主要是介绍一个BP的完整代码实现(供参考与收藏),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

原文来自 老饼玩转-BP神经网络http://bp.bbbdata.com/teach#100


目录

一、代码思路简介

二、主体代码

三、附加代码:表达式打印


本文展示一个完整的BP神经网络训练例子,包含归一化、训练与测试数据分割、BP网络训练、训练结果与测试结果展示,和最后提取模型的数学表达式共6个完整步骤(使用matlab2014b)。
作为一个完整的base Demo供参考和学习。


一、代码思路简介

本例从 \text{y} = 10*\sin(x_1)+0.2*x_2^2  中采取100个样本建立BP神经网络,然后与原函数进行比较。

步骤包括

(1)数据生成
(2)数据归一化
(3)训练测试数据分割
(4)网络训练
(5)展示训练结果
(6)泛化检验-测试数据的测试结果
(7)模型的使用
(8)提取模型的表达式
(9)模型表达式的反归一化
附加:模型表达式的打印。


运行结果如下

训练得到的模型表达式

13.8247*tansig(-0.94451*x1+0.33945*x2+2.1889)+18.6309*tansig(0.38004*x1+0.38706*x2+0.095989)-15.5021*tansig(0.7589*x1-0.06713*x2+2.0389)+1.6125

二、主体代码

clear all;close all ;
%------------------原始数据-----------------------------------
x1 = linspace(-3,3,100);     % 在[-3,3]之间线性生成100个数据
x2 = linspace(-2,1.5,100);   % 在[-2,1.5]之间线性生成100个数据
y = 10*sin(x1)+0.2*x2.*x2;   % 生成yinputData  = [x1;x2];        % 将x1,x2作为输入数据
outputData = y;              % 将y作为输出数据%--------------数据预处理:归一化-------------------------------
%由于有归一化,必须先将归一化信息抓取出来
iMax = max(inputData,[],2);
iMin = min(inputData,[],2);
oMax = max(outputData,[],2);
oMin = min(outputData,[],2);normInputData=2*(inputData -repmat(iMin,1,size(inputData,2)))./repmat(iMax-iMin,1,size(inputData,2)) -1;
normOutPutData=2*(outputData -repmat(oMin,1,size(outputData,2)))./repmat(oMax-oMin,1,size(outputData,2)) -1;%---------------数据预处理:预留检验数据----------------------------------
randIndex  = randperm(100);
trainIndex = sort(randIndex(1:80));                 % 随机选出80个数据作为训练数据(这里先选出数据的序号)
testIndex  = sort(randIndex(81:100));               % 将剩下的20个数据作为检验数据(这里先选出数据的序号)inputData_train  = normInputData(:,trainIndex);     % 根据序号选出80个用于训练的输入
inputData_test   = normInputData(:,testIndex);      % 根据序号选出20个用于检验的输入
outputData_train = normOutPutData(:,trainIndex);    % 根据序号选出80个用于训练的输出
outputData_test  = normOutPutData(:,testIndex);     % 根据序号选出20个用于检验的输出%----------------网络训练 -----------------------------------------------
%使用用输入输出数据(inputData_train、outputData_train)建立网络,隐节点个数设为3.其中输入层到隐层、隐层到输出层的节点分别为tansig和purelin,使用trainlm方法训练。
net = newff(inputData_train,outputData_train,3,{'tansig','purelin'},'trainlm');%设置一些常用参数
net.trainparam.goal = 0.00001;    % 训练目标:均方误差低于0.0001
net.trainparam.show = 400;        % 每训练400次展示一次结果
net.trainparam.epochs = 15000;    % 最大训练次数:15000.[net,tr] = train(net,inputData_train,outputData_train);  % 调用matlab神经网络工具箱自带的train函数训练网络%----------训练数据的拟合效果-----------------------------
figure;
%训练数据的拟合效果
simout_train = sim(net,inputData_train);
subplot(2,1,1);
title('训练数据的拟合效果')
hold on
t=1:length(simout_train);
plot(t,outputData_train,t,simout_train,'r')%画图,对比原来的y和网络预测的y%检验数据的拟合效果
simout_test = sim(net,inputData_test);
subplot(2,1,2);
title('未训练数据的拟合效果')
hold ont=1:length(simout_test);
plot(t,outputData_test,t,simout_test,'r')%画图,对比原来的y和网络预测的y%-----------------------真正使用时的流程--------------------
X= [-2.9;-1.9];                             % 要预测的X
normX=2*(X -iMin)./(iMax-iMin) -1;          % 对X归一化
normSimY = sim(net,normX);                  % 用网络预测
simy = (normSimY+1).*(oMax-oMin)./2 + oMin; % 对结果反归一%----------------------提取表达式(对应归一化数据)------------------------------------
%提取权重
w12 = net.iw{1,1};                          % 第1层(输入层)到第2层(隐层)的权值
b2 = net.b{1};                              % 第2层(隐层)的神经元阈值w23 = net.lw{2,1};                          % 第2层(输入层)到第3层(输出层)的权值
b3 = net.b{2};                              % 第3层(输出层)的神经元阈值%对应的数学表达式:
sim_y_norm = w23 *tansig( w12 *inputData + repmat(b2,1,size(inputData,2))) + repmat(b3,1,size(inputData,2));%----------------------提取表达式(对应原始数据)------------------------------------
%权重反归一化
W12 = w12 * 2 ./repmat(iMax' -iMin',size(w12,1),1);
B2  = -w12* (2*iMin ./(iMax - iMin) + 1) + b2;W23 = w23 .*repmat((oMax -oMin),1,size(w23,2))/2;
B3  = (oMax -oMin) .*b3 /2 + (oMax -oMin)/2 + oMin;%最终的数学表达式:
sim_y = W23 *tansig( W12 *inputData + repmat(B2,1,size(inputData,2))) + repmat(B3,1,size(inputData,2));%数学表达式与工具箱预测结果的比较
net_sim_y = sim(net,normInputData);
net_sim_y=(net_sim_y+1).*(oMax-oMin)./2 + oMin; % 对结果反归一
formula_err=max(max(abs(net_sim_y - sim_y)));

三、附加代码:表达式打印

加入以下一段,可以打印表达式(仅为参考DEMO,非通用函数)

[hn,xn] = size(W12);%隐节点个数,输入个数
f_str = '';
for i=1:hncur_tansig = [num2str(W23(i)),'*tansig('];if(i>1 && W23(i)>0)cur_tansig =['+',cur_tansig] ;endfor j = 1: xnsign_str = '';if(j>1 && W12(i,j)>0 )sign_str='+';endcur_tansig = [cur_tansig,sign_str,num2str(W12(i,j)),'*x',num2str(j)];endsign_str = '';if( B2(i)>0 )sign_str='+';endcur_tansig = [cur_tansig,sign_str,num2str(B2(i)),')'];f_str= [f_str,cur_tansig];
end
sign_str = '';
if( B3>0 )sign_str='+';
end
f_str=[f_str,sign_str,num2str(B3)]

运行结果:

13.8247*tansig(-0.94451*x1+0.33945*x2+2.1889)+18.6309*tansig(0.38004*x1+0.38706*x2+0.095989)-15.5021*tansig(0.7589*x1-0.06713*x2+2.0389)+1.6125

 相关文章

​《BP神经网络梯度推导》

​​​​​​《BP神经网络提取的数学表达式》

《一个BP的完整建模流程》

这篇关于一个BP的完整代码实现(供参考与收藏)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/253843

相关文章

pytorch自动求梯度autograd的实现

《pytorch自动求梯度autograd的实现》autograd是一个自动微分引擎,它可以自动计算张量的梯度,本文主要介绍了pytorch自动求梯度autograd的实现,具有一定的参考价值,感兴趣... autograd是pytorch构建神经网络的核心。在 PyTorch 中,结合以下代码例子,当你

SpringBoot集成Milvus实现数据增删改查功能

《SpringBoot集成Milvus实现数据增删改查功能》milvus支持的语言比较多,支持python,Java,Go,node等开发语言,本文主要介绍如何使用Java语言,采用springboo... 目录1、Milvus基本概念2、添加maven依赖3、配置yml文件4、创建MilvusClient

JS+HTML实现在线图片水印添加工具

《JS+HTML实现在线图片水印添加工具》在社交媒体和内容创作日益频繁的今天,如何保护原创内容、展示品牌身份成了一个不得不面对的问题,本文将实现一个完全基于HTML+CSS构建的现代化图片水印在线工具... 目录概述功能亮点使用方法技术解析延伸思考运行效果项目源码下载总结概述在社交媒体和内容创作日益频繁的

openCV中KNN算法的实现

《openCV中KNN算法的实现》KNN算法是一种简单且常用的分类算法,本文主要介绍了openCV中KNN算法的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的... 目录KNN算法流程使用OpenCV实现KNNOpenCV 是一个开源的跨平台计算机视觉库,它提供了各

OpenCV图像形态学的实现

《OpenCV图像形态学的实现》本文主要介绍了OpenCV图像形态学的实现,包括腐蚀、膨胀、开运算、闭运算、梯度运算、顶帽运算和黑帽运算,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起... 目录一、图像形态学简介二、腐蚀(Erosion)1. 原理2. OpenCV 实现三、膨胀China编程(

通过Spring层面进行事务回滚的实现

《通过Spring层面进行事务回滚的实现》本文主要介绍了通过Spring层面进行事务回滚的实现,包括声明式事务和编程式事务,具有一定的参考价值,感兴趣的可以了解一下... 目录声明式事务回滚:1. 基础注解配置2. 指定回滚异常类型3. ​不回滚特殊场景编程式事务回滚:1. ​使用 TransactionT

Android实现打开本地pdf文件的两种方式

《Android实现打开本地pdf文件的两种方式》在现代应用中,PDF格式因其跨平台、稳定性好、展示内容一致等特点,在Android平台上,如何高效地打开本地PDF文件,不仅关系到用户体验,也直接影响... 目录一、项目概述二、相关知识2.1 PDF文件基本概述2.2 android 文件访问与存储权限2.

使用Python实现全能手机虚拟键盘的示例代码

《使用Python实现全能手机虚拟键盘的示例代码》在数字化办公时代,你是否遇到过这样的场景:会议室投影电脑突然键盘失灵、躺在沙发上想远程控制书房电脑、或者需要给长辈远程协助操作?今天我要分享的Pyth... 目录一、项目概述:不止于键盘的远程控制方案1.1 创新价值1.2 技术栈全景二、需求实现步骤一、需求

Spring Shell 命令行实现交互式Shell应用开发

《SpringShell命令行实现交互式Shell应用开发》本文主要介绍了SpringShell命令行实现交互式Shell应用开发,能够帮助开发者快速构建功能丰富的命令行应用程序,具有一定的参考价... 目录引言一、Spring Shell概述二、创建命令类三、命令参数处理四、命令分组与帮助系统五、自定义S

SpringBatch数据写入实现

《SpringBatch数据写入实现》SpringBatch通过ItemWriter接口及其丰富的实现,提供了强大的数据写入能力,本文主要介绍了SpringBatch数据写入实现,具有一定的参考价值,... 目录python引言一、ItemWriter核心概念二、数据库写入实现三、文件写入实现四、多目标写入