Pooling layers

2024-01-19 18:38
文章标签 layers pooling

本文主要是介绍Pooling layers,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

整理并翻译自吴恩达深度学习系列视频:卷积神经网络1.9

Pooling layers

Other than convolutional layers, ConvNets often use pooling layers to reduce the size of their representation to speed up computation, as well as to make some of the features it detects a bot more robust.
与卷积层不同,卷积网络通常使用池化层去减小其(图像)表示以加速计算,同时使其检测出的特征更加健壮。
在这里插入图片描述

这是一个最大池化的例子,使用2X2的filter在4X4block上做最大池化(即取最大值)。注意我们不仅选取 f = 2 f=2 f=2,也取了stride s = 2 s=2 s=2,因此我们最后得到了一个2X2的block,按颜色对应如上图。

计算output维度变为:
⌊ n + 2 p − f s + 1 ⌋ \lfloor \frac{n+2p-f}{s}+1\rfloor sn+2pf+1

Average Pooling

在这里插入图片描述
平均池化很少使用,是在filter框起来的部分里取均值。一般用来坍缩你的图像表示。

Parameters

在这里插入图片描述
池化层使用的hyperparameter f f f s s s,都不需要通过反向传播来学习,你或许是自己手动设置的,或许是通过cross-validation来设置的。它是一个固定的函数(it’s just a fixed function)。

这篇关于Pooling layers的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/623318

相关文章

OpenXR Monado compositor处理应用layers(cheduled->delivered)

OpenXR Monado compositor处理应用的layer,scheduled->delivered  @src/xrt/targets/common/target_instance.ct_instance_create_system@src/xrt/compositor/main/comp_compositor.ccomp_main_create_system_composito

Convolutional layers/Pooling layers/Dense Layer 卷积层/池化层/稠密层

Convolutional layers/Pooling layers/Dense Layer 卷积层/池化层/稠密层 Convolutional layers 卷积层 Convolutional layers, which apply a specified number of convolution filters to the image. For each subregion, the

C++卷积神经网络实例:tiny_cnn代码详解(11)——层结构容器layers类源码分析

在这篇博文中我们对tiny_cnn卷积神经网络模型中的最后一个网络结构方面的类——layers做简要分析。   首先,layers通俗的讲可以被称为是层结构的vector,即层结构容器。由于卷积神经网络是一个多层的网络模型,因此有必要将网络中各个层进行统一管理,这便引出了本篇博文中所要介绍的layers类。layers类是一个vector类型的变量,其中压入的元素就是网络中的各个层模型,这里

C++卷积神经网络实例:tiny_cnn代码详解(6)——average_pooling_layer层结构类分析

在之前的博文中我们着重分析了convolutional_layer类的代码结构,在这篇博文中分析对应的下采样层average_pooling_layer类:   一、下采样层的作用   下采样层的作用理论上来说由两个,主要是降维,其次是提高一点特征的鲁棒性。在LeNet-5模型中,每一个卷积层后面都跟着一个下采样层:   原因就是当图像在经过卷积层之后,由于每个卷积层都有多个卷积

HBase Connection Pooling

两种方法获得连接: Configuration configuration = HBaseConfiguration.create(); ExecutorService executor = Executors.newFixedThreadPool(nPoolSize); (1)旧API中:          Connection connection = HConnectionManag

一文彻底搞懂CNN - 卷积和池化(Convolution And Pooling)

Convolutional Neural Network CNN(卷积神经网络)最核心的两大操作就是卷积(Convolution)和池化(Pooling)。卷积用于特征提取,通过卷积核在输入数据上滑动计算加权和;池化用于特征降维,通过聚合统计池化窗口内的元素来减少数据空间大小。 Convolution And Pooling 一、_卷积(Convolution) 卷积(Convol

CV-笔记-重读Fast R-CNN的ROI pooling

目录 1 原图上的ROI坐标如何映射到feature map上?2 ROI Pooling是如何做?3 ROI Pooling的梯度反向传播是怎么做的?4 那么多的ROI Pooling做完以后是怎么进入到全连接层进行训练的?5 正负样本怎么制作?6 loss怎么计算?smooth L1 7回归的数值是什么?引用 Fast R-CNN主要是使用了一个ROI Pooling操作来对候

tf.layers.conv1d函数解析(一维卷积)

一维卷积一般用于处理文本,所以输入一般是一段长文本,就是词的列表   函数定义如下: tf.layers.conv1d(inputs,filters,kernel_size,strides=1,padding='valid',data_format='channels_last',dilation_rate=1,activation=None,use_bias=True,

pytorch--Pooling layers

文章目录 1.torch.nn.MaxPool1d()2.torch.nn.MaxPool2d3.torch.nn.AvgPool2d()4.torch.nn.FractionalMaxPool2d()5.torch.nn.AdaptiveMaxPool2d()6.torch.nn.AdaptiveAvgPool2d() 1.torch.nn.MaxPool1d()   t

【池化方法】——strip pooling

转载自:AI算法修炼营 论文链接:https://arxiv.org/abs/2003.13328v1 代码链接:https://github.com/Andrew-Qibin/SPNet 1. 前言 提高卷积神经网络中远程依赖关系建模能力的一种方法是采用self-attention机制或non-local模块。然而,它们会消耗大量内存。 具体文章可以关注:视觉注意力机制:self-a