【拔刀吧 TensorFlow】TensorFlow学习笔记九——何为卷积神经网络(二)

2024-02-03 20:50

本文主要是介绍【拔刀吧 TensorFlow】TensorFlow学习笔记九——何为卷积神经网络(二),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

继续CNN之旅。

我们上一篇说到,不同的滤波器得到的特征图也不同。

而在CNN中,我们先自己指定滤波器的个数、大小和网络架构等参数,然后CNN可以在训练过程中学习最合适的滤波器的值。使用的滤波器越多,我们提取到的图像特征就越多,网络在未知图像上的识别模式也就越好。

特征图的大小,又有三个参数来控制,我们要在做卷积操作前就确定它们,分别是:1.深度(Depth)2.步长(Stride)3.零填充(Zero-padding)。

1.先说深度:简单来说就是每使用一个滤波器就能得到一个特征图,比如我们使用了3个滤波器,得到3个特征图,此时特征图深度就是3。


2.第二个是步长:就是每次移动滤波器的像素数,步长为1每次移动一个像素;步长为2,每次移动两个像素……以此类推。步长越大,得到的特征图越小。

3.最后一个概念是零填充:这里按我的理解来说就是手动设置输入图的大小,比如我们原始图像在我们设定了某个大小的滤波器后,不能按照预定步长卷积,那么我们就在图像边缘用0进行填充,把它变大。 

使用零填充的图像叫做泛卷积,未使用零填充的图像叫做严格卷积(narrow convolution)。

Relu(略)

这里的相关内容在《简介神经网络》有提及,不再赘述。

Relu的直观理解使用下图。


它将特征图中所有的负值变为了正值,也就是对特征图进行了矫正(Rectified)。

【这里引入一个自己的开始的误区,刚开始说灰度图像像素值介于0~255之间,怎么会有负值?后来发现这里说的是特征图,而我们使用滤波器得到特征图,滤波器会有负值,因此……对吧?】

原作者说:Other non linear functions such as tanh or sigmoid can also be used instead of ReLU, but ReLU has been found to perform better in most situations.  就是相比于tanh、sigmoid函数,ReLU最好用啦。

池化操作

空间池化(Spatial Pooling),亦称下采样或者亚采样。可以在保存重要信息的前提下用来降低特征图的维度。

空间池化方法有3种:最大化、平均化和求和。

最大池化:假设我们定义一个空间邻域(2x2大小的窗口),然后我们用这个窗口在矫正过的特征图(用过ReLU)中提取最大的元素。我们以2为步长滑动窗口并在每个区域内取最大值。

很好理解。

此外,亦可用求平均值和求和的方法。但是最大池化被证明表现最好。


这幅图展示了我们将池化操作分别使用在三个不同的特征图上,这样我们就可以得到3个输出图。


这幅图展示了ReLU修正图上使用不同池化操作的可视化结果。

池化操作的功能就是减少输入图的尺寸,特别的是,池化可以:

1.使得输入图维度减小,更易于管理、计算

2.减少参数的个数和计算量,避免过拟合

3.在输入图部分产生微小改变的时候,保证从池化结果的稳定性(鲁棒性)

(比如最大池化,我们不改变一个区域内最大的值,仅改变其它数值,池化结果不变)

4.这里作者说helps us arrive at an almost scale invariant representation of our image (the exact term is “equivariant”). This is very powerful since we can detect objects in an image no matter where they are located。

对于这句话我有点困惑,引用知乎答主Julius Caesar的回答:“

谢邀.
图像在平移后再特征图上的表示也是同样平移的,这就使图像拥有了一定的平移不变性。
同样的,pooling(以MAX Pooling为例),对局部感受野取其极大值,如果图像在尺度上发生了变化,有一定概率在尺度变化后对应的感受野取到的极大值不变,这样就可以使特征图不变,同样也增加了一定的平移不变性。对于形状不变性,实际上,在图像识别中,重要的不是显著特征的绝对位置而是相对的位置,所以为了避免把过多的位置信息编码进去,卷积和池化的操作都可以对局部的纹理进行模糊化,这样也就使图像有了一定的形状的不变性。
一点拙见,如有错误希望能够得到指正,谢谢。


作者:Julius Caesar
链接:https://www.zhihu.com/question/36980971/answer/93529612
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

我的理解就是图像平移、缩放之后有一定概率池化结果不变?原作者给出这篇和这篇引用,等看完看看能不能懂?

截止现在我们做了什么

正如图片所示,我们目前了解了卷积、ReLU和池化是怎么工作的。这些都是构建CNN网络十分重要的内容。而图中有两组卷积、ReLU和池化操作,第二组卷积使用6个滤波器对第一组的池化结果进行卷积,得出6个特征图。进行ReLU后进行最大池化操作。这些层提取了图像的特征,驾校了图像的维度,同时保证了一定程度上的尺寸不变性。

第二组池化层的结果作为输入,送入了全连接层。(MLP)

全连接层(略)

完整的卷积网络的训练过程可以总结如下:

  • 第一步:我们初始化所有的滤波器,使用随机值设置参数/权重
  • 第二步:网络接收一张训练图像作为输入,通过前向传播过程(卷积、ReLU 和池化操作,以及全连接层的前向传播),找到各个类的输出概率
    • 我们假设船这张图像的输出概率是 [0.2, 0.4, 0.1, 0.3]
    • 因为对于第一张训练样本的权重是随机分配的,输出的概率也是随机的
  • 第三步:在输出层计算总误差(计算 4 类的和)
    • Total Error = ∑  ½ (target probability – output probability) ²
  • 第四步:使用反向传播算法,根据网络的权重计算误差的梯度,并使用梯度下降算法更新所有滤波器的值/权重以及参数的值,使输出误差最小化

    • 权重的更新与它们对总误差的占比有关
    • 当同样的图像再次作为输入,这时的输出概率可能会是 [0.1, 0.1, 0.7, 0.1],这就与目标矢量 [0, 0, 1, 0] 更接近了
    • 这表明网络已经通过调节权重/滤波器,可以正确对这张特定图像的分类,这样输出的误差就减小了
    • 像滤波器数量、滤波器大小、网络结构等这样的参数,在第一步前都是固定的,在训练过程中保持不变——仅仅是滤波器矩阵的值和连接权重在更新
  • 第五步:对训练数据中所有的图像重复步骤 1 ~ 4

结束!

References
  1. karpathy/neuraltalk2: Efficient Image Captioning code in Torch, Examples
  2. Shaoqing Ren, et al, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, 2015, arXiv:1506.01497 
  3. Neural Network Architectures, Eugenio Culurciello’s blog
  4. CS231n Convolutional Neural Networks for Visual Recognition, Stanford
  5. Clarifai / Technology
  6. Machine Learning is Fun! Part 3: Deep Learning and Convolutional Neural Networks
  7. Feature extraction using convolution, Stanford
  8. Wikipedia article on Kernel (image processing) 
  9. Deep Learning Methods for Vision, CVPR 2012 Tutorial 
  10. Neural Networks by Rob Fergus, Machine Learning Summer School 2015
  11. What do the fully connected layers do in CNNs? 
  12. Convolutional Neural Networks, Andrew Gibiansky 
  13. A. W. Harley, “An Interactive Node-Link Visualization of Convolutional Neural Networks,” in ISVC, pages 867-877, 2015 (link). Demo
  14. Understanding Convolutional Neural Networks for NLP
  15. Backpropagation in Convolutional Neural Networks
  16. A Beginner’s Guide To Understanding Convolutional Neural Networks
  17. Vincent Dumoulin, et al, “A guide to convolution arithmetic for deep learning”, 2015, arXiv:1603.07285
  18. What is the difference between deep learning and usual machine learning?
  19. How is a convolutional neural network able to learn invariant features?
  20. A Taxonomy of Deep Convolutional Neural Nets for Computer Vision
  21. Honglak Lee, et al, “Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations” (link)

这篇关于【拔刀吧 TensorFlow】TensorFlow学习笔记九——何为卷积神经网络(二)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/675359

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个