手写数字识别 神经网络 C++ 实现(三:ex4的实现)

2023-10-20 01:32

本文主要是介绍手写数字识别 神经网络 C++ 实现(三:ex4的实现),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

 

实现基本架构类

Part 1: Loading and Visualizing Data 

Part 2: Loading Parameters

Part 3: Compute Cost (Feedforward) 

Part 4: Implement Regularization

Part 5: Sigmoid Gradient

 Part 6: Initializing Pameters

Part 7: Implement Backpropagation

Part 8: Training NN

完整代码:


实现基本架构类

#include <core/core.hpp>    
#include <opencv2/opencv.hpp>
#include <iostream>  
#include <fstream>
#include <ostream>
#include <typeinfo>
#include <time.h>
using namespace std;
using namespace cv; 
class Nnetwork{
public:int visibleSize, hiddenSize, outputSize, layer_num;double lambda, cost, a;Mat data,//inputpre_data,pre_outp,outp,//output*b, *W, *bgrad, *Wgrad, *active_value, *test_Wgrad, *test_bgrad, *av;void initParam();Nnetwork();Nnetwork(int visiblesize, int hiddensize, int outpsize, int layernums, double lambda) :visibleSize(visiblesize),hiddenSize(hiddensize),outputSize(outpsize),layer_num(layernums),lambda(lambda){initParam();}Mat sigmoid(Mat matrix);double sigmoid(double num);Mat mat_exp(Mat r);Mat mat_log(Mat r);void forward_propagation();void showimage(Mat data, int pic_size, int num);void test_readdata();void test_readlabel();void test_load_Param();void test_nncost_1();void test_nncost_2();double test_nncost_3(int lambda, Mat *active_value, Mat *b, Mat *W);Mat sigmoidGradient(Mat inp);void writeMatToFile(cv::Mat& m, const char* filename);void computeNumericalGradient();Mat debugInitializeWeights(int fan_out, int fan_in);void checkNNGradients();void train();double predict();double pre_dict();void before_train();
};

Part 1: Loading and Visualizing Data 

Part 2: Loading Parameters

参见上一节:https://blog.csdn.net/Runner_of_nku/article/details/88815894

Part 3: Compute Cost (Feedforward) 

Part 4: Implement Regularization

这一步的前向传播是读取的上一节中的参数,我们需要实现的是代价函数,代码如下:

	void test_nncost_1(){delete[]active_value;active_value = new Mat[2];int data_size = outp.rows;active_value[0] = repeat(b[0], 1, data_size);active_value[1] = repeat(b[1], 1, data_size);active_value[0] = sigmoid(W[0]*data.t()+active_value[0]);active_value[1] = sigmoid(W[1]*active_value[0] + active_value[1]);Mat yk = Mat::zeros(10, data_size, CV_64FC1);for (int i = 0; i < data_size; i++)yk.at<double>(int(outp.at<double>(i, 0))-1,i) = 1;double J = sum((-1 * yk).mul(mat_log(active_value[1])) - (1 - yk).mul(mat_log(1 - active_value[1])))[0]/data_size;cout << "Cost at parameters (loaded from ex4weights)\n(this value should be about 0.287629)\n" << J<<endl;lambda=1;J += lambda / 2 / data_size * (sum(W[0].mul(W[0]))[0] + sum(W[1].mul(W[1]))[0]);cout << "Cost at parameters (loaded from ex4weights)\n(this value should be about 0.383770)\n" << J<<endl;cost = J;Mat delta3 = (active_value[1] - yk);Mat tem = (delta3.t()*W[1]).t();Mat delta2 = tem.mul(active_value[0]).mul(1 - active_value[0]);Wgrad[1] = delta3*active_value[0].t() / data_size + lambda*W[1] / data_size;Wgrad[0] = delta2*data / data_size + lambda*W[0] / data_size;bgrad[1] = Mat(delta3.rows, 1, CV_64FC1, Scalar::all(0));bgrad[0] = Mat(delta2.rows, 1, CV_64FC1, Scalar::all(0));reduce(delta3, bgrad[1], 1, 1);reduce(delta2, bgrad[0], 1, 1);}

Part 5: Sigmoid Gradient

这一节很简单,实现sigmoid函数的求导,我们在实际计算的时候可以直接写sigmoid(x)*(1-sigmoid(x))即可

 Part 6: Initializing Pameters

ex4中的随机数是直接给出了0.12,实际上这个0.12是怎么算出来的呢:

sqrt(6) / sqrt(hiddenSize + visibleSize + 1) ≈ 0.12

	void initParam(){a = 0.2;b = new Mat[layer_num];W = new Mat[layer_num];b[0] = Mat(hiddenSize, 1, CV_64FC1, Scalar(0));b[layer_num - 1] = Mat(outputSize, 1, CV_64FC1, Scalar(0));W[0] = Mat(hiddenSize, visibleSize, CV_64FC1);W[layer_num - 1] = Mat(outputSize, hiddenSize, CV_64FC1);for (int i = 1; i < layer_num - 1; i++){W[i] = Mat(hiddenSize, hiddenSize, CV_64FC1);b[i] = Mat(hiddenSize, 1, CV_64FC1, Scalar(0));}double r = sqrt(6) / sqrt(hiddenSize + visibleSize + 1);for (int i = 0; i < layer_num; i++){randu(W[i], Scalar::all

这篇关于手写数字识别 神经网络 C++ 实现(三:ex4的实现)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/243731

相关文章

Python实现终端清屏的几种方式详解

《Python实现终端清屏的几种方式详解》在使用Python进行终端交互式编程时,我们经常需要清空当前终端屏幕的内容,本文为大家整理了几种常见的实现方法,有需要的小伙伴可以参考下... 目录方法一:使用 `os` 模块调用系统命令方法二:使用 `subprocess` 模块执行命令方法三:打印多个换行符模拟

SpringBoot+EasyPOI轻松实现Excel和Word导出PDF

《SpringBoot+EasyPOI轻松实现Excel和Word导出PDF》在企业级开发中,将Excel和Word文档导出为PDF是常见需求,本文将结合​​EasyPOI和​​Aspose系列工具实... 目录一、环境准备与依赖配置1.1 方案选型1.2 依赖配置(商业库方案)二、Excel 导出 PDF

Python实现MQTT通信的示例代码

《Python实现MQTT通信的示例代码》本文主要介绍了Python实现MQTT通信的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1. 安装paho-mqtt库‌2. 搭建MQTT代理服务器(Broker)‌‌3. pytho

使用zip4j实现Java中的ZIP文件加密压缩的操作方法

《使用zip4j实现Java中的ZIP文件加密压缩的操作方法》本文介绍如何通过Maven集成zip4j1.3.2库创建带密码保护的ZIP文件,涵盖依赖配置、代码示例及加密原理,确保数据安全性,感兴趣的... 目录1. zip4j库介绍和版本1.1 zip4j库概述1.2 zip4j的版本演变1.3 zip4

python生成随机唯一id的几种实现方法

《python生成随机唯一id的几种实现方法》在Python中生成随机唯一ID有多种方法,根据不同的需求场景可以选择最适合的方案,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起学习学习... 目录方法 1:使用 UUID 模块(推荐)方法 2:使用 Secrets 模块(安全敏感场景)方法

C++中全局变量和局部变量的区别

《C++中全局变量和局部变量的区别》本文主要介绍了C++中全局变量和局部变量的区别,全局变量和局部变量在作用域和生命周期上有显著的区别,下面就来介绍一下,感兴趣的可以了解一下... 目录一、全局变量定义生命周期存储位置代码示例输出二、局部变量定义生命周期存储位置代码示例输出三、全局变量和局部变量的区别作用域

C++中assign函数的使用

《C++中assign函数的使用》在C++标准模板库中,std::list等容器都提供了assign成员函数,它比操作符更灵活,支持多种初始化方式,下面就来介绍一下assign的用法,具有一定的参考价... 目录​1.assign的基本功能​​语法​2. 具体用法示例​​​(1) 填充n个相同值​​(2)

Spring StateMachine实现状态机使用示例详解

《SpringStateMachine实现状态机使用示例详解》本文介绍SpringStateMachine实现状态机的步骤,包括依赖导入、枚举定义、状态转移规则配置、上下文管理及服务调用示例,重点解... 目录什么是状态机使用示例什么是状态机状态机是计算机科学中的​​核心建模工具​​,用于描述对象在其生命

Spring Boot 结合 WxJava 实现文章上传微信公众号草稿箱与群发

《SpringBoot结合WxJava实现文章上传微信公众号草稿箱与群发》本文将详细介绍如何使用SpringBoot框架结合WxJava开发工具包,实现文章上传到微信公众号草稿箱以及群发功能,... 目录一、项目环境准备1.1 开发环境1.2 微信公众号准备二、Spring Boot 项目搭建2.1 创建

IntelliJ IDEA2025创建SpringBoot项目的实现步骤

《IntelliJIDEA2025创建SpringBoot项目的实现步骤》本文主要介绍了IntelliJIDEA2025创建SpringBoot项目的实现步骤,文中通过示例代码介绍的非常详细,对大家... 目录一、创建 Spring Boot 项目1. 新建项目2. 基础配置3. 选择依赖4. 生成项目5.