卷积神经网络LeNet5结构

2023-12-22 16:38

本文主要是介绍卷积神经网络LeNet5结构,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

LeNet5可以说是最早的卷积神经网络了,它发表于1998年,论文原文Gradient-Based Learning Applied to Doucment Recognition作者是Yann Le Cun等。下面对LeNet5网络架构进行简单的说明,有兴趣的同学可以去参考原文,论文原文地址http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf。

一、LeNet5网络架构图


LeNet5不包括输入层一共有七层,每一层都包含了可以训练的参数,输入是一张大小为32*32的图片。

1、C1卷积层

这一层的输入就是原始的图像,输入层接受图片的输入大小为32*32*1。卷积层的核(过滤器)尺寸为5*5,深度为6,不使用0进行填充,步长为1。通过计算公式可以求出输出的尺寸为28*28*6,卷积层的深度决定了输出尺寸的深度。卷积层总共的参数有5*5*1*6+6 =156个参数,加的6为卷积后的偏置项参数。本层所拥有的节点有28*28*6=

4704个节点, 而本层的每一个节点都是经过一个5*5的卷积和一个偏置项计算所得到的,5*5+1=26,所以本层卷积层一共有4704*26 = 122304个连接。

2、S2池化层

本层的输入是C1层的输出,它接受一个28*28*6的节点矩阵。在卷积神经网络中,常用的池化层有最大池化和平均池化,所使用的核大小为2*2,长和宽的步长都是2,意味着输入矩阵的每四个相邻的元素经过S2之后只会有一个输出元素,所以本层的输出矩阵大小为14*14*6,池化层不会改变输入矩阵的深度。而在LeNet5网络中,池化层是首先对C1层输出中的2*2相邻的区域内,先求和然后再加上一个偏置项,最后将结果做一次映射通过sigmoid函数,所以就将输出的行和列变成了输入的一半,一共有6*2 = 12个参数。与C1层一共有,(4+1)*6*14*14=5880个连接。

3、C3卷积层

这一层的输入是一个14*14*6的矩阵,C3层一共有16卷积核,每一个卷积核的大小为5*5,输出是10*10*16,下面的表格展示了S2层与C3层的连接关系。


从上表中可以发现,行号表示C3层中的16个卷积核,列号表示的是S2层中的6个卷积核的输出。C3层中的前6(0-5)个卷积与S2层中的3个卷积核输出相连,C3层中的中间的3个(6-8)与S2层中连续的4个卷积核的输出相连,后面6个(9-14)与S2层中不连续的4个卷积核的输出相连,C3层中的最后一个卷积与S2层中所有输出相连。为什么S2不和C3的每一个卷积核相连呢?主要有两个原因,第一,不使用全连接能够保证有连接的数量保持在一个合理的界限范围内可以减少参数,最重要的是,通过这种方式可以打破网络的对称性,不同的卷积核通过输入可以得到不同的特征。从表中的C3层与S2层的连接关系可以求出C3的参数一共有:6*(5*5*3+1)+9*(5*5*4+1)+1*(5*5*6+1)=1516个参数,与S2层的连接一共有,10*10*1516=151600个连接。

4、S4池化层

S4层的池化方式与S2层相同,输入是10*10*16,输出是5*5*16。所以,S4层一共有16*2=32个参数,与S3层一共有(4+1)*5*5*16=2000个连接。

5、C5卷积层

C5层由120个卷积核组成,一个卷积与S4中每一个feature map(5*5*16)相连,所以每一个C5的卷积核都会输出一个1*1,所以在S4与C5之间是属于全连接。C5是一个卷积层而不是一个全连接层,如果这个LeNet5的输入变的更大了而其它的保持不变,那么这个输出将要大于1*1。C5层与S4一共有120*(5*5*16+1)=48120个连接。在论文的第七章有介绍到动态增加卷积网络大小的过程。

6、F6全连接层

F6层包含了84个节点,一共包含了84*(120+1)=10164个参数。F6层通过将输入向量与权重向量求点积,然后在加上偏置项。这个加权和表示为a(i),对于第i个单元,然后通过一个sigmoid压缩函数,来产生一个x(i),x(i)=f(a(i))。这个压缩函数是双曲正切函数(tanh),f(a)=Atanh(Sa)。A是函数的振幅决定了函数最大最小值,决定了曲线在原点的斜率,这个tanh函数是奇函数(关于原点对称),下图是tanh的函数图像,y的范围在[-1,1],所以f(a)的函数取值范围就在[-A,A]。


7、输出层

输出层是由欧式径向基函数(RBF)组成。每一个输出对应一个RBF函数,每一个RBF函数都有84维的输入向量,RBF的函数公式如下。每一个RBF函数都会有一个输出,最后输出层会输出一个10维的向量。


二、总结

通过LeNet5的模型,而在实际应用中,我们所设置的卷积网络模型,所处理的图片大小一定都会超过32*32,如果遇到这种情况我们应该怎么处理呢?通常的做法有两种,第一种将所处理的图片大小转换成32*32,这种做法效果可能不是很好,将图片转成32*32的图片之后,肯定会丢失很多的信息。第二种,就是设计一个新的卷积神经网络,来使其适用不同图片的输入,通过LeNet5的网络,我们可以发现一个问题,输入层--->卷积---->池化--->(重复卷积和池化步骤)--->全连接--->输出层。通过这个结构,我们可以用一个正则表达式来表示一个卷积神经网络的架构,输入层->(卷积层+--->池化层?)+--->全连接层+,正则表达式中的,“卷积层+”表示一层或者多层卷积层,大部分的卷积神经网络中一般最多连续使用三层卷积层。“池化层?”表示没有或者一层池化层。池化层可以减少参数和防止过拟合问题,其实我们也可以通过直接调整卷积层的步长来完成。所以,可能在有些卷积神经网络中没有池化层。在经过多轮的卷积层和池化层之后,卷积神经网络在输出之前一般会经过1~2个全连接层。

这篇关于卷积神经网络LeNet5结构的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/524678

相关文章

usaco 1.3 Mixing Milk (结构体排序 qsort) and hdu 2020(sort)

到了这题学会了结构体排序 于是回去修改了 1.2 milking cows 的算法~ 结构体排序核心: 1.结构体定义 struct Milk{int price;int milks;}milk[5000]; 2.自定义的比较函数,若返回值为正,qsort 函数判定a>b ;为负,a<b;为0,a==b; int milkcmp(const void *va,c

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

自定义类型:结构体(续)

目录 一. 结构体的内存对齐 1.1 为什么存在内存对齐? 1.2 修改默认对齐数 二. 结构体传参 三. 结构体实现位段 一. 结构体的内存对齐 在前面的文章里我们已经讲过一部分的内存对齐的知识,并举出了两个例子,我们再举出两个例子继续说明: struct S3{double a;int b;char c;};int mian(){printf("%zd\n",s

OpenCV结构分析与形状描述符(11)椭圆拟合函数fitEllipse()的使用

操作系统:ubuntu22.04 OpenCV版本:OpenCV4.9 IDE:Visual Studio Code 编程语言:C++11 算法描述 围绕一组2D点拟合一个椭圆。 该函数计算出一个椭圆,该椭圆在最小二乘意义上最好地拟合一组2D点。它返回一个内切椭圆的旋转矩形。使用了由[90]描述的第一个算法。开发者应该注意,由于数据点靠近包含的 Mat 元素的边界,返回的椭圆/旋转矩形数据

C语言程序设计(选择结构程序设计)

一、关系运算符和关系表达式 1.1关系运算符及其优先次序 ①<(小于) ②<=(小于或等于) ③>(大于) ④>=(大于或等于 ) ⑤==(等于) ⑥!=(不等于) 说明: 前4个优先级相同,后2个优先级相同,关系运算符的优先级低于算术运算符,关系运算符的优先级高于赋值运算符 1.2关系表达式 用关系运算符将两个表达式(可以是算术表达式或关系表达式,逻辑表达式,赋值表达式,字符

Science|癌症中三级淋巴结构的免疫调节作用与治疗潜力|顶刊精析·24-09-08

小罗碎碎念 Science文献精析 今天精析的这一篇综述,于2022-01-07发表于Science,主要讨论了癌症中的三级淋巴结构(Tertiary Lymphoid Structures, TLS)及其在肿瘤免疫反应中的作用。 作者类型作者姓名单位名称(中文)通讯作者介绍第一作者Ton N. Schumacher荷兰癌症研究所通讯作者之一通讯作者Daniela S. Thomm

oracle11.2g递归查询(树形结构查询)

转自: 一 二 简单语法介绍 一、树型表结构:节点ID 上级ID 节点名称二、公式: select 节点ID,节点名称,levelfrom 表connect by prior 节点ID=上级节点IDstart with 上级节点ID=节点值 oracle官网解说 开发人员:SQL 递归: 在 Oracle Database 11g 第 2 版中查询层次结构数据的快速

机器学习之监督学习(三)神经网络

机器学习之监督学习(三)神经网络基础 0. 文章传送1. 深度学习 Deep Learning深度学习的关键特点深度学习VS传统机器学习 2. 生物神经网络 Biological Neural Network3. 神经网络模型基本结构模块一:TensorFlow搭建神经网络 4. 反向传播梯度下降 Back Propagation Gradient Descent模块二:激活函数 activ

Tomcat下载压缩包解压后应有如下文件结构

1、bin:存放启动和关闭Tomcat的命令的路径。 2、conf:存放Tomcat的配置,所有的Tomcat的配置都在该路径下设置。 3、lib:存放Tomcat服务器的核心类库(JAR文件),如果需要扩展Tomcat功能,也可将第三方类库复制到该路径下。 4、logs:这是一个空路径,该路径用于保存Tomcat每次运行后产生的日志。 5、temp:保存Web应用运行过程中生成的临时文件

C和指针:结构体(struct)和联合(union)

结构体和联合 结构体 结构体包含一些数据成员,每个成员可能具有不同的类型。 数组的元素长度相同,可以通过下标访问(转换为指针)。但是结构体的成员可能长度不同,所以不能用下标来访问它们。成员有自己的名字,可以通过名字访问成员。 结构声明 在声明结构时,必须列出它包含的所有成员。 struct tag {member-list} variable-list ; 定义一个结构体变量x(包含