2022最新版-李宏毅机器学习深度学习课程-P22 卷积神经网络CNN

本文主要是介绍2022最新版-李宏毅机器学习深度学习课程-P22 卷积神经网络CNN,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

零、吴恩达专项课程引入

概念导入:边缘检测

假如有一张如下的图像,想让计算机搞清楚图像上有什么物体,有两种方法:检测图像的 垂直边缘 和 水平边缘

如下图所示,一个 6 * 6 的灰度图像,构造一个 3 * 3 的矩阵( 在CNN中通常称为 filter 过滤器),将 3 * 3 矩阵映射到该图像中,对这个 6 * 6 的灰度图像做 卷积运算,filter 跟图片对应位置的数值直接相乘,所有的都乘完以后再相加(内积),其中步长为1,以此类推,让过滤器在图像上逐步滑动,对整个图像进行卷积计算得到一幅 4 * 4 的图像。

这种方法可以得到图像的边缘信息的主要解释如下:

下图 0 表示图像深色区域,10为图像亮色区域,同样用一个 3 * 3 过滤器(其中,1代表亮色、0代表灰色、-1代表更深的深色),对图像进行卷积计算,得到右侧的矩阵,代表的图像信息为中间亮,两边暗(30为亮色,0为暗色),有明显深浅交叉对比,其中 亮色区域 就对应图像边缘。

 通过水平过滤器和垂直过滤器,可以实现图像水平和垂直边缘检测。还有其他类型的滤波器,在处理其他适合的任务目标方面有很好的效果。

 总结

在卷积神经网络中我们要学习的便是这些滤波器 filter 的参数(神经元的权值 weight ),卷积神经网络训练的目标就是去理解过滤器的参数

一、CNN 用于图像分类

基本步骤

  1. 把所有图片都先 Rescale 成大小一样
  2. 把每一个类别,表示成一个 One-Hot 的 Vector(Dimension 的长度就决定了模型可以辨识出多少不同种类的东西,)
  3. 将图像【输入】到模型中

如何将图片输入到模型中?⇒ 一般思路:展平→参数量过大

 彩色图像分为R G B 三层,展平后首尾相接

值代表着颜色的强度

 图像识别中不需要全连接的,参数太多了

基础卷积操作的缺点

参数过多,影响训练

如果输入图像的维度是 100 × 100 × 3,并且有 1000 个 Neuron,那第一层的 Weight 就有 1000 ×100 × 100 × 3( 3×10 的 7 次方),是一个非常巨大的参数数量。

虽然随著参数的增加,我们可以增加模型的弹性,我们可以增加它的能力,但是我们也增加了 Overfitting 的风险。

解法1:设定 “感受野”(Receptive Field)

原理:Neuron 也许根本就不需要把整张图片当作输入,它们只需要把图片的一小部分当作输入,就足以让它们检测某些特别关键的 Pattern 有没有出现。例如:在检测鸟嘴的任务中,仅需要获取下图的鸟嘴周围红框部分的图像信息即可检测出鸟嘴

观测1:通过判断多个小局部图像就能判断出图片标签

 若要设置 “感受野”,每个神经元只需要考察特定范围内的图像信息,将图像内容展平后输入到神经元中即可。

简化1特点

  • 感受野之间可以重叠
  • 一个感受野可以被多个神经元选择(共享权重)
  • 在设置感受野大小时,感受野可以“有大有小”(一般不做过大的kernal Size,常常设定为3*3)
  • 感受野可以只考虑某一些 Channel
  • 感受野可以是 “长方形” 的
  • 感受野不一定要 “相连”

感受野的一般设定

每一个感受域有多个神经元守备。kernel size 是宽高大小,stride 是移动的步长,padding 是边界区域扩充补值(一般是补 0)。在移动时,我们希望感受域彼此之间有重叠,防止有 pattern 在边缘交界处检测不到。图片中的每个地方都要有感受域,从头开始一步步滑动直到整个图像区域扫描完成

  1. 看所有的Channel

    一般在做影像辨识的时候会看全部的 Channel。那么,在描述一个 Receptive Field 的时候,无需说明其Channel数,只要讲它的高、宽⇒Kernel Size

    一般不做过大的kernal Size,常常设定为3 × 3

  2. 每个感受野会有不止一个神经元进行“守备”⇒输出通道数/卷积核数目

  3. 不同的感受野之间的关系⇒感受野的平移位移:stride【hyperparameter】

    一般希望感受野之间有重叠,避免交界处的pattern被忽略

  4. 感受野超出影响的范围⇒padding(补值)

    补0;补平均值;补边缘值……

  5. 垂直方向移动。

解法2:Parameter Sharing 权值共享(不同 Receptive Field 的 Neuron 共享参数)

原理:同样的 pattern,可能出现在图片的“不同位置”,不同感受域的神经元起同一个作用,侦测同样pattern的神经元做的工作是类似的 ⇒ 共享参数

例如下图所示,在检测鸟嘴的任务中,相当于一个滤波器扫描整张图片看有没有鸟嘴。

观测2:相同部分出现在不同区域

例如下图所示,虽然二者选择的 Receptive Field(感受野区域) 不一样,但是它们的参数一模一样。共享的其实就是参数 w,单个神经元的参数 w 是固定的,不会因为感受域不同而改变(当然 w 初始状态为未知,是需要学出来的)。所以同一个神经元针对不同的输入会有不同的输出

参数共享的一般设定

对每个感受野,都使用一组相同的神经元进行守备;这一组神经元被称作 filter(实质是同一套权重),对不同感受野使用的 filter 参数相同

卷积的优势

卷积层是“受限”(弹性变小)的FC:

  • FC可以通过“学习”决定要看到的“图片”的范围。加上“感受野”概念后,就只能看某一个范围。
  • FC可以自由决定守备不同“感受野”的各个神经元参数。加上“权值共享”概念后,守备不同感受野的同一个滤波器(filter)参数相同。

分析:

  • 一般而言,Model Bias 小,Model 的 Flexibility 很高的时候,比较容易 Overfitting,Fully Connected Layer可以做各式各样的事情,它可以有各式各样的变化,但是它可能没有办法在任何特定的任务上做好
  • CNN 的 Bias 比较大,它是专门為影像设计的,所以它在影像上仍然可以做得好。

二、另一角度切入

1.卷积层

卷积层中有若干个 filter,每个 filter 可以用来 “抓取” 图片中的某一种特征(特征 pattern 的大小,小于感受野大小)。filter 的参数即是神经元中的“权值(weight)”。

不同的  filter 逐步滑动扫描计算完成一张图的矩阵后,将会产生“新的图片”,其中 每个  filter  将会产生图片中的一个  channel  ⇒  这个结果即为 feature map(特征图)

filter的计算是“内积”:filter跟图片对应位置的数值直接相乘,所有的都乘完以后再相加。

例如下图中的例子,选择的 3 * 3 滤波器对正对角线的信息敏感,因此利用此滤波器对左图矩阵的左上角进行卷积计算后,得到的结果为 3

多层卷积

第一层的卷积结果,产生了一张3×3的feature map。继续卷积时,需要对64个channel都进行处理⇒filter的“高度”为64。

多层卷积⇒让“小”卷积核看到“大”pattern

在第二次卷积时,输入的原始图片信息增加了!

所以不是一直分区域处理的。随着层数的增加,考虑的范围会逐渐变大

这里,在第二层中考虑3×3的范围,在原图实际上考虑了5×5范围内的pattern。当卷积层越来越深时,即使只是3×3的filter,看到的范围也会越来越大。

卷积运算中也有Bias,描述时一般“忽略”

2.padding 和 卷积步长 (stride)

上述卷积运算过程的缺点是:

① 卷积操作会降低卷积图像的大小,可能会使图像大小越来越低

② 图像的边角元素只被一个滤波器进行计算并输出使用,因此这些图像边缘的像素在输出中采用较少,也意味着丢掉了很多图像边缘的信息

解决方法:

① 引入了 padding 操作(习惯上用0来填充),也就是在图像卷积操作之前,沿着图像边缘用0进行图像填充。对于3*3的过滤器,我们填充宽度为1时,就可以保证输出图像和输入图像一样大

② 引入 卷积步长 stride (过滤器在图像上滑动的距离)

加入 padding 和 stride 后卷积图像大小的通用计算公式为:

3. 补充知识点

①  参数大小: 例如有 10 个  3 * 3 的过滤器,每个过滤器都有 3 * 3 * 3 + 1 = 28 个参数(其中,3 * 3 * 3 为过滤器大小,1 是偏差系数

②  每经过一组 过滤器的计算后 ,输出图像的通道数 就是 过滤器的个数

③  1 x 1 卷积可以在保证高度宽度不变的情况下压缩信道数量并减少计算(降维)。

④ 迁移学习冻结前面所有的层,只把softmax层改动以适应自己的实现。

三、两种介绍的对比

分享的权重其实就是filter

 卷积 = 不同的filter扫过整个矩阵 = 不同的感受野公用权重参数

不用看整张图片范围:

  • 神经元角度:只要守备感受野
  • 滤波器角度:使用滤波器侦测模式pattern

图片不同位置的相同模式pattern:

  • 神经元角度:守备不同感受野的神经元共用参数
  • 滤波器角度:滤波器“扫过”整张图片

解法3:Pooling(池化)把图片变小,减小运算量

观测3:截出主要元素不会改变标签

引入池化层,池化的目的就是挑出重要的信息,然后缩小规模,减小运算量,提升运算速度。但是会造成精确度下降。

Pooling本身没有参数,所以它不是一个 Layer,没有要 Learn 的东西。行为类似于一个 Activation Function,(Sigmoid , ReLU ),是一个 Operator,它的行為都是固定好的。

分类:

  • Max pooling
  • Avg Pooling
  • ……

大小:可以调整

例如下图通过滤波器产生了4x4 的数字图,按照方框分成四组,每一组中选最大值做为该组代表,这就叫 max pooling(最大池化)

假如是将每一组的平均值作为该组代表,那么就叫做 mean pooling (平均池化)

 平均池化和最大池化唯一的不同是,它计算的是区域内的平均值而最大池化计算的是最大值。在日常应用使用最多的还是最大池化,除了一些较深的神经网络。

池化的超参数:步长 stride 、过滤器大小 filter size 、池化类型最大池化 / 平均池化

四、CNN全过程总结

一般:卷积与池化交替使用。pooling⇒可有可无(算力支撑)

Pooling对於 Performance,会带来一点伤害的。如果你运算资源足够支撑你不做 Pooling 的话,很多 Network 的架构的设计,往往今天就不做 Pooling,全 Convolution。

通过卷积层,池化层,拉直(flatten),全连接层,softmax 后,输出结果去分类。不过随着技术的提高,运算能力越来越强,可以不使用池化层来提高精确度(因为现在很多实验环境算力都够用,池化层的目的显得越来越没必要,所以在设计每一模块的时候都要考虑当前任务及实验环境,根据这些因素去设计最符合的网络)。

五、应用:Alpha Go

把棋盘看成19×19的图片,用48个channel来描述,代表48个状态

下围棋与“图像辨识”的共同点

  • 只看小范围
  • 模式在不同位置出现。

不同点:没有Pooling

由于棋子不能省略,用于围棋中不能加入池化层

更多应用:语音、自然语音处理。。。

To Learn More:CNN的缺陷——空间变换

⇒data augmentation/spacial transformer(下一讲)

CNN 并不能够处理影像放大缩小,或者是旋转的问题。所以在做影像辨识的时候,往往都要做 Data Augmentation,把你的训练数据截一小块出来放大缩小、把图片旋转,CNN 才会做到好的结果。

有一个架构叫 spacial Transformer Layer可以处理。

这篇关于2022最新版-李宏毅机器学习深度学习课程-P22 卷积神经网络CNN的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/229841

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个