C++卷积神经网络实例:tiny_cnn代码详解(7)——fully_connected_layer层结构类分析

本文主要是介绍C++卷积神经网络实例:tiny_cnn代码详解(7)——fully_connected_layer层结构类分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  之前的博文中已经将卷积层、下采样层进行了分析,在这篇博文中我们对最后一个顶层层结构fully_connected_layer类(全连接层)进行分析:

  一、卷积神经网路中的全连接层

  在卷积神经网络中全连接层位于网络模型的最后部分,负责对网络最终输出的特征进行分类预测,得出分类结果:

  LeNet-5模型中的全连接层分为全连接和高斯连接,该层的最终输出结果即为预测标签,例如这里我们需要对MNIST数据库中的数据进行分类预测,其中的数据一共有10类(数字0~9),因此全全连接层的最终输出就是一个10维的预测结果向量,哪一维的值为非零,则预测结果对应的就是几。

  二、fully_connected_layer类结构

  与之前卷积层和下采样层不同的是,这里的全连接层fully_connected_layer类继承自基类layer,其中类成员一共可分为四大部分:成员变量、构造函数、前向传播函数、反向传播函数。

  2.1 成员变量

  fully_connected_layer类的成员变量只有一个,就是一个Filter类型的变量:

  而这里的Filter是通过类模板参数传入的一个缺省filter_none类型,具体如下:

  至于filter_none类型,从名称判断应该是一个和滤波器核相关的类封装,具体定义在dropout.h文件中:

  有关dropout.h文件中封装的相关类的详细信息我会在之后的博文中进行详细的介绍,这里先留一个坑,不过事先透漏一点,卷积神经网络中的dropout本质上是为了改善网络过拟合性能而设计的。

  2.2 构造函数

  构造函数极其简单,单纯的调用了基类layer的构造函数:

  至于基类layer,里面封装了大量的虚函数以及纯虚函数,并给出了网络层基本的框架设定,对layer_base类进行了一部分实例化,这几点我们以后会详细说的。

  2.3 前向传播函数

  众所周知,卷积神经网络在训练时和BP神经网络的训练极其相似,包括一个样本预测的前向传播过程和误差的反向传播过程。首先前向传播函数的代码如下:

        const vec_t& forward_propagation(const vec_t& in, size_t index) {vec_t &a = a_[index];vec_t &out = output_[index];for_i(parallelize_, out_size_, [&](int i) {a[i] = 0.0;for (int c = 0; c < in_size_; c++)a[i] += W_[c*out_size_ + i] * in[c];a[i] += b_[i];});for_i(parallelize_, out_size_, [&](int i) {out[i] = h_.f(a, i);});auto& this_out = filter_.filter_fprop(out, index);return next_ ? next_->forward_propagation(this_out, index) : this_out;}

  从代码中可以看出这个前向传播函数本质上属于一个递归函数,用递归的方式实现层层传播的功能:

  在前向传播的过程中,主要有两个阶段,一是通过当前层的卷积核和偏置完成对输入数据的映射:

  从代码中可见,卷积层的映射过程本质上就是一个卷积操作,然后在对卷积结果累加偏置。第二个阶段就是将卷积层的映射结果送入激活函数中进行处理:

  激活函数的主要作用是对卷积层的映射输出进行规范化,调整期数据分布。经典的激活函数是Sigmoid函数,主要对输出特征进行平滑。在之后学者又提出Relu类型的激活函数,主要是对输出特征进行稀疏化规范,使其更接近于人脑的视觉映射机理。在tiny_cnn中作者封装了sigmoid、relu、leaky_relu、softmax、tan_h、tan_hp1m2等激活函数,这些类都定义在activation命名空间中,具体在activation_function.h文件中,在后续的篇幅中我会专门拿出一篇博文的篇幅对tiny_cnn的激活函数做集中的分析。

  2.4 反向传播函数

  反向传播算法是BP类型神经网络的经典特征,大部分都采用随机梯度下降法对误差进行求导和传播。由于反向传播算法涉及到误差的求偏导、灵敏度传递等概念,导致其在原理上相对于前向传播过程显得更为复杂,代码实现也较为繁琐,我们这里只是先给出反向传播的代码,在后续的博文中在针对这个传播过程进行更文详细的分析,OK,又是一个坑:

    const vec_t& back_propagation(const vec_t& current_delta, size_t index) {const vec_t& curr_delta = filter_.filter_bprop(current_delta, index);const vec_t& prev_out = prev_->output(index);const activation::function& prev_h = prev_->activation_function();vec_t& prev_delta = prev_delta_[index];vec_t& dW = dW_[index];vec_t& db = db_[index];for (int c = 0; c < this->in_size_; c++) {// propagate delta to previous layer// prev_delta[c] += current_delta[r] * W_[c * out_size_ + r]prev_delta[c] = vectorize::dot(&curr_delta[0], &W_[c*out_size_], out_size_);prev_delta[c] *= prev_h.df(prev_out[c]);}for_(parallelize_, 0, out_size_, [&](const blocked_range& r) {// accumulate weight-step using delta// dW[c * out_size + i] += current_delta[i] * prev_out[c]for (int c = 0; c < in_size_; c++)vectorize::muladd(&curr_delta[0], prev_out[c], r.end() - r.begin(), &dW[c*out_size_ + r.begin()]);for (int i = r.begin(); i < r.end(); i++) db[i] += curr_delta[i];});return prev_->back_propagation(prev_delta_[index], index);}

  四、注意事项

  1、卷积层和下采样层的前向/反向传播函数

  在fully_connected_layer类中我们发现其内部封装了前向/反向传播函数,但在之前介绍的卷积层和均值下采样层中我们并没有发现前向/反向传播函数的影子,但前向/反向传播函数确实是一个全局的过程,不可能出现断层,因此仔细研究就会发现原来作者是将convolutional_layer类和average_pooling_layer对应的前向/反向传播函数封装在了它们共同的基类:partial_connected_layer中了。

  2、前向传播函数和反向传播函数

  在这篇博文中我为后续的博文中挖下了很多大坑,尤其像前向/反向传播函数这种卷积神经网络训练的精华部分,是最能体现作者编程功力和框架设计功力的地方,一两篇博文都不一定能讲的清楚,所以请大家不要着急,我会尽快把其中的玄机弄明白,然后用通俗的语言进行解释的,所以说,坑一定会都一一填上的。



如果觉得这篇文章对您有所启发,欢迎关注我的公众号,我会尽可能积极和大家交流,谢谢。


这篇关于C++卷积神经网络实例:tiny_cnn代码详解(7)——fully_connected_layer层结构类分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1115500

相关文章

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

【C++ Primer Plus习题】13.4

大家好,这里是国中之林! ❥前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站。有兴趣的可以点点进去看看← 问题: 解答: main.cpp #include <iostream>#include "port.h"int main() {Port p1;Port p2("Abc", "Bcc", 30);std::cout <<

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

C++包装器

包装器 在 C++ 中,“包装器”通常指的是一种设计模式或编程技巧,用于封装其他代码或对象,使其更易于使用、管理或扩展。包装器的概念在编程中非常普遍,可以用于函数、类、库等多个方面。下面是几个常见的 “包装器” 类型: 1. 函数包装器 函数包装器用于封装一个或多个函数,使其接口更统一或更便于调用。例如,std::function 是一个通用的函数包装器,它可以存储任意可调用对象(函数、函数

OpenHarmony鸿蒙开发( Beta5.0)无感配网详解

1、简介 无感配网是指在设备联网过程中无需输入热点相关账号信息,即可快速实现设备配网,是一种兼顾高效性、可靠性和安全性的配网方式。 2、配网原理 2.1 通信原理 手机和智能设备之间的信息传递,利用特有的NAN协议实现。利用手机和智能设备之间的WiFi 感知订阅、发布能力,实现了数字管家应用和设备之间的发现。在完成设备间的认证和响应后,即可发送相关配网数据。同时还支持与常规Sof

C++11第三弹:lambda表达式 | 新的类功能 | 模板的可变参数

🌈个人主页: 南桥几晴秋 🌈C++专栏: 南桥谈C++ 🌈C语言专栏: C语言学习系列 🌈Linux学习专栏: 南桥谈Linux 🌈数据结构学习专栏: 数据结构杂谈 🌈数据库学习专栏: 南桥谈MySQL 🌈Qt学习专栏: 南桥谈Qt 🌈菜鸡代码练习: 练习随想记录 🌈git学习: 南桥谈Git 🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈�

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

活用c4d官方开发文档查询代码

当你问AI助手比如豆包,如何用python禁止掉xpresso标签时候,它会提示到 这时候要用到两个东西。https://developers.maxon.net/论坛搜索和开发文档 比如这里我就在官方找到正确的id描述 然后我就把参数标签换过来

06 C++Lambda表达式

lambda表达式的定义 没有显式模版形参的lambda表达式 [捕获] 前属性 (形参列表) 说明符 异常 后属性 尾随类型 约束 {函数体} 有显式模版形参的lambda表达式 [捕获] <模版形参> 模版约束 前属性 (形参列表) 说明符 异常 后属性 尾随类型 约束 {函数体} 含义 捕获:包含零个或者多个捕获符的逗号分隔列表 模板形参:用于泛型lambda提供个模板形参的名

usaco 1.3 Mixing Milk (结构体排序 qsort) and hdu 2020(sort)

到了这题学会了结构体排序 于是回去修改了 1.2 milking cows 的算法~ 结构体排序核心: 1.结构体定义 struct Milk{int price;int milks;}milk[5000]; 2.自定义的比较函数,若返回值为正,qsort 函数判定a>b ;为负,a<b;为0,a==b; int milkcmp(const void *va,c