卷积神经网络感受野计算指南

2024-06-21 09:32

本文主要是介绍卷积神经网络感受野计算指南,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”


者:Dang Ha The Hien

编译:ronghuaiyang

导读

之前分享过一篇文章,是关于感受野的,今天这篇文章是专门讲解如何计算感受野的,可以和之前那篇结合起来看,之前那篇文章我也再推送一次给大家。

感受野可能是卷积神经网络(CNNs)中最重要的概念之一,值得更多的关注。所有最先进的物体识别方法都围绕这一思想设计它们的模型体系结构。然而,据我所知,目前还没有一个完整的指南,如何计算和可视化感受野的CNN信息。这篇文章通过介绍一种新的方法来填补这一空白,这种方法可以在CNN中可视化特征图,公开感受野信息,同时提供一个完整的感受野计算,可以用于任何CNN架构。我还实现了一个简单的程序来演示计算,这样任何人都可以开始计算感受野,并更好地了解他们正在使用的CNN的架构。

为了理解这篇文章,我假设您熟悉CNN的概念,特别是卷积和池操作。你可以通过阅读论文"A guide to convolution arithmetic for deep learning"来更新你的CNN知识。如果你对CNNs有一定的了解,这篇文章不会占用你超过半个小时。这篇文章实际上是受到那篇论文的启发,并使用了类似的符号。

固定尺寸的CNN特征图可视化

感受野 定义为输入空间中某个CNN特性正在查看(即受其影响)的区域。特征的感受野可以通过其中心位置大小来描述。然而,并不是感受野中的所有像素对于其对应的CNN特征都是同等重要的。在感受野内,像素越靠近中心,对输出特征的计算贡献越大。这意味着一个特征不仅关注输入图像中的一个特定区域(即它的感受野),而且指数级地更加关注该区域的中心。这一重要见解将在另一篇博客文章中进一步解释。目前,我们的重点是计算特定感受野的位置和大小。

图1显示了一些感受野示例。将C与kernel size k = 3x3, padding size p = 1x1, stride s = 2x2 *在输入map 5x5上进行卷积,得到输出feature map 3x3(绿色map)。在3x3 feature map上应用相同的卷积,得到2x2feature map(橙色map)。每个维度中输出特性的数量可以使用以下公式计算,具体说明如下。

640?wx_fmt=png

注意,在本文中,为了简化,我假设CNN架构是对称的,而输入图像是正方形的。所以这两个维度对于所有变量都有相同的值。如果CNN架构或输入图像是非对称的,则可以分别计算每个维度的feature map属性。

640?wx_fmt=png

图1:两种可视化CNN feature maps的方法。在所有情况下,我们都使用C与内核大小k = 3x3,填充大小p = 1x1,步幅s = 2x2的卷积。(顶行)在5x5的输入图上应用卷积,得到3x3的绿色特征图。(下一行)在绿色特征图的顶部应用相同的卷积,生成2x2橙色特征图。(左栏)CNN特征图的常用可视化方法。只看特征图,我们不知道特征在哪里(它的感受野的中心位置),以及这个区域有多大(它的感受野大小)。在深度CNN中跟踪感受野信息是不可能的。(右栏)固定大小的CNN feature map visualization,其中每个feature map的大小是固定的,feature位于其感受野的中心。

图1的左列显示了一种可视化CNN feature map的常用方法。在这个可视化过程中,尽管通过查看特征图,我们知道它包含了多少特征。不可能知道每个特征观察的位置在哪里(它的感受野的中心位置),以及这个区域有多大(它的感受野大小)。图1的右栏显示了固定尺寸的CNN可视化,它通过保持所有feature map的大小不变并等于输入map来解决这个问题。每个特征都被标记在其感受野位置的中心。因为feature map中的所有特征都具有相同大小的感受野,所以我们可以简单地在一个特征周围画一个包围框来表示它的感受野大小。我们不需要将这个边界框一直映射到输入层,因为feature map已经在输入层用相同大小来表示了。图2显示了另一个使用相同卷积的例子,但应用于更大的输入映射- 7x7。我们可以用3D(左)或2D(右)绘制固定大小的CNN feature maps。注意,图2中感受野的大小增长得非常快,以至于第二个特性层的中心特征的感受野几乎覆盖了整个输入map。这是一个重要的见解,它被用来改进一个深度CNN的设计。

640?wx_fmt=png

图2:另一个固定大小的CNN feature map表示。同样的卷积C应用于i = 7x7的更大的输入映射。我围绕中心特征绘制了感受野边界框,并删除了填充网格以获得更清晰的视图。固定大小的CNN feature map可以显示为3D(左)或2D(右)。

感受野计算

要计算每一层的感受野,除了每个维度的特征数n外,还需要跟踪每一层的一些额外信息。其中包括当前感受野大小r,两个相邻特征(或跳转)之间的距离j,和左上角特征(第一个特征)的中心坐标start 。注意,特征的中心坐标被定义为其感受野的中心坐标,如上面的固定大小的CNN feature map所示。当与kernel size k, padding size p, stride size s进行卷积时,输出层的属性可以通过以下公式计算:

640?wx_fmt=png

  • 第一个方程根据输入特征个数和卷积性质计算输出特征个数。这与上面中给出的方程相同。

  • 第二个方程计算输出特征图中的jump,它等于输入映射中的jump乘以应用卷积时跳过的输入特征的数量(步长)。

  • 第三个方程计算输出feature map的接感受野大小,等于k 个输入特征所覆盖的区域(k-1)*j_in,加上边界上输入feature的感受野所覆盖的额外区域。

  • 第四个方程计算第一个输出特征的感受野的中心位置,等于第一个输入特征的中心位置 + 第一个输入特征的中心位置到第一个卷积 (k - 1) / 2 * j_in的距离 - padding空间p * j_in。注意,在这两种情况下,我们都需要将输入feature map的jump相乘,以得到实际的距离/空间。

第一层是输入层,它总是有n =图像大小r = 1, j = 1, start = 0.5。注意,在图3中,我使用的坐标系中,输入层的第一个特征的中心位于0.5。通过递归应用上述四个方程,我们可以计算出CNN中所有feature map的感受野信息。图3显示了这些方程如何工作的示例。

640?wx_fmt=png

图3:对图1中的示例应用感受野计算。第一行显示了符号和一般方程,第二行和最后一行显示了将其应用于给定输入层信息的输出层感受野的计算过程。

我还创建了一个小型python程序,它计算给定CNN体系结构中所有层的感受野信息。它还允许你输入任何特征图的名称和该特征图中特征的索引,并返回相应感受野的大小和位置。下图显示了使用AlexNet时的输出示例。代码在本文末尾提供。

640?wx_fmt=png

# [filter size, stride, padding]	
#Assume the two dimensions are the same	
#Each kernel requires the following parameters:	
# - k_i: kernel size	
# - s_i: stride	
# - p_i: padding (if padding is uneven, right padding will higher than left padding; "SAME" option in tensorflow)	
# 	
#Each layer i requires the following parameters to be fully represented: 	
# - n_i: number of feature (data layer has n_1 = imagesize )	
# - j_i: distance (projected to image pixel distance) between center of two adjacent features	
# - r_i: receptive field of a feature in layer i	
# - start_i: position of the first feature's receptive field in layer i (idx start from 0, negative means the center fall into padding)	
import math	
convnet =   [[11,4,0],[3,2,0],[5,1,2],[3,2,0],[3,1,1],[3,1,1],[3,1,1],[3,2,0],[6,1,0], [1, 1, 0]]	
layer_names = ['conv1','pool1','conv2','pool2','conv3','conv4','conv5','pool5','fc6-conv', 'fc7-conv']	
imsize = 227	
def outFromIn(conv, layerIn):	n_in = layerIn[0]	j_in = layerIn[1]	r_in = layerIn[2]	start_in = layerIn[3]	k = conv[0]	s = conv[1]	p = conv[2]	n_out = math.floor((n_in - k + 2*p)/s) + 1	actualP = (n_out-1)*s - n_in + k 	pR = math.ceil(actualP/2)	pL = math.floor(actualP/2)	j_out = j_in * s	r_out = r_in + (k - 1)*j_in	start_out = start_in + ((k-1)/2 - pL)*j_in	return n_out, j_out, r_out, start_out	
def printLayer(layer, layer_name):	print(layer_name + ":")	print("\t n features: %s \n \t jump: %s \n \t receptive size: %s \t start: %s " % (layer[0], layer[1], layer[2], layer[3]))	
layerInfos = []	
if __name__ == '__main__':	
#first layer is the data layer (image) with n_0 = image size; j_0 = 1; r_0 = 1; and start_0 = 0.5	print ("-------Net summary------")	currentLayer = [imsize, 1, 1, 0.5]	printLayer(currentLayer, "input image")	for i in range(len(convnet)):	currentLayer = outFromIn(convnet[i], currentLayer)	layerInfos.append(currentLayer)	printLayer(currentLayer, layer_names[i])	print ("------------------------")	layer_name = raw_input ("Layer name where the feature in: ")	layer_idx = layer_names.index(layer_name)	idx_x = int(raw_input ("index of the feature in x dimension (from 0)"))	idx_y = int(raw_input ("index of the feature in y dimension (from 0)"))	n = layerInfos[layer_idx][0]	j = layerInfos[layer_idx][1]	r = layerInfos[layer_idx][2]	start = layerInfos[layer_idx][3]	assert(idx_x < n)	assert(idx_y < n)	print ("receptive field: (%s, %s)" % (r, r))	print ("center: (%s, %s)" % (start+idx_x*j, start+idx_y*j))
640?wx_fmt=png— END—

英文原文:https://medium.com/mlreview/a-guide-to-receptive-field-arithmetic-for-convolutional-neural-networks-e0f514068807

640?wx_fmt=jpeg

请长按或扫描二维码关注本公众号

喜欢的话,请给我个好看吧640?wx_fmt=gif

这篇关于卷积神经网络感受野计算指南的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1080841

相关文章

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

使用 sql-research-assistant进行 SQL 数据库研究的实战指南(代码实现演示)

《使用sql-research-assistant进行SQL数据库研究的实战指南(代码实现演示)》本文介绍了sql-research-assistant工具,该工具基于LangChain框架,集... 目录技术背景介绍核心原理解析代码实现演示安装和配置项目集成LangSmith 配置(可选)启动服务应用场景

Python如何计算两个不同类型列表的相似度

《Python如何计算两个不同类型列表的相似度》在编程中,经常需要比较两个列表的相似度,尤其是当这两个列表包含不同类型的元素时,下面小编就来讲讲如何使用Python计算两个不同类型列表的相似度吧... 目录摘要引言数字类型相似度欧几里得距离曼哈顿距离字符串类型相似度Levenshtein距离Jaccard相

SQL Server数据库迁移到MySQL的完整指南

《SQLServer数据库迁移到MySQL的完整指南》在企业应用开发中,数据库迁移是一个常见的需求,随着业务的发展,企业可能会从SQLServer转向MySQL,原因可能是成本、性能、跨平台兼容性等... 目录一、迁移前的准备工作1.1 确定迁移范围1.2 评估兼容性1.3 备份数据二、迁移工具的选择2.1

在 Windows 上安装 DeepSeek 的完整指南(最新推荐)

《在Windows上安装DeepSeek的完整指南(最新推荐)》在Windows上安装DeepSeek的完整指南,包括下载和安装Ollama、下载DeepSeekRXNUMX模型、运行Deep... 目录在www.chinasem.cn Windows 上安装 DeepSeek 的完整指南步骤 1:下载并安装

nginx-rtmp-module构建流媒体直播服务器实战指南

《nginx-rtmp-module构建流媒体直播服务器实战指南》本文主要介绍了nginx-rtmp-module构建流媒体直播服务器实战指南,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. RTMP协议介绍与应用RTMP协议的原理RTMP协议的应用RTMP与现代流媒体技术的关系2

Spring Boot统一异常拦截实践指南(最新推荐)

《SpringBoot统一异常拦截实践指南(最新推荐)》本文介绍了SpringBoot中统一异常处理的重要性及实现方案,包括使用`@ControllerAdvice`和`@ExceptionHand... 目录Spring Boot统一异常拦截实践指南一、为什么需要统一异常处理二、核心实现方案1. 基础组件

电脑密码怎么设置? 一文读懂电脑密码的详细指南

《电脑密码怎么设置?一文读懂电脑密码的详细指南》为了保护个人隐私和数据安全,设置电脑密码显得尤为重要,那么,如何在电脑上设置密码呢?详细请看下文介绍... 设置电脑密码是保护个人隐私、数据安全以及系统安全的重要措施,下面以Windows 11系统为例,跟大家分享一下设置电脑密码的具体办php法。Windo

Python使用qrcode库实现生成二维码的操作指南

《Python使用qrcode库实现生成二维码的操作指南》二维码是一种广泛使用的二维条码,因其高效的数据存储能力和易于扫描的特点,广泛应用于支付、身份验证、营销推广等领域,Pythonqrcode库是... 目录一、安装 python qrcode 库二、基本使用方法1. 生成简单二维码2. 生成带 Log

使用C#代码计算数学表达式实例

《使用C#代码计算数学表达式实例》这段文字主要讲述了如何使用C#语言来计算数学表达式,该程序通过使用Dictionary保存变量,定义了运算符优先级,并实现了EvaluateExpression方法来... 目录C#代码计算数学表达式该方法很长,因此我将分段描述下面的代码片段显示了下一步以下代码显示该方法如