【阅读笔记】《ParseNet: Looking Wider to See Better》

2023-12-12 18:08

本文主要是介绍【阅读笔记】《ParseNet: Looking Wider to See Better》,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文记录了博主阅读论文《ParseNet: Looking Wider to See Better》的笔记,代码。更新于2019.05.16。

文章目录

  • Abstract
  • Introduction
  • Related Work
  • ParseNet
  • Experiments
    • Best Practice of Finetuning
    • Combining Local and Global Features
  • Conclusion

Abstract

本文提出了一个将全局上下文加入到全卷积网络用于语义分割的方法。这个方法很简单,用的是一个层的平均特征来扩张每个位置上的特征。此外,作者还研究了几种训练过程中的特质,极大地增加了对比算法表现(比如FCN)。将全局特征加上后,用了一个学习归一化参数的技巧,这种方式极大提高了算法表现。所提出的方法(ParseNet)在PASCAL-Context下实现了当前最好的表现(PASCAL VOC 2012数据库)。

Introduction

下图是网络过程:
在这里插入图片描述

Related Work

ParseNet

Global Context

尽管理论上,网络最后一层的特征的感受野非常大(比如加了VGG的FCN的感受野为404x404),但实际上,经验感受野却远远小于这个数值,并且不足以支撑全局上下文。为了证明感受野的有效性,我们对输入图像的一个小图块增加随机噪声,再研究目标层上的影响结果。如果效果改变很大,那就是给定任意一个图块是在经验感受野外的。如下图所示:
在这里插入图片描述
最后一层的感受野几乎无法覆盖整张图的1/4.这种有效感受野与经验感受野之间的区别也被Zhou等人证明了。

具体而言,我们用全局平均池化对最后一层上下文特征进行池化,或是对任意目标层池化。在局部特征图上增加全局特征后,分割的效果大幅提升。

Early Fusion and Late Fusion

在得到了全局上下文特征后,我们有两个标准的处理方式将其与局部特征一起使用。首先,是early fusion,如Fig.1中所示,这里将全局特征复制(unpool)到与局部特征相同的尺寸(空间),之后级联,再用组合后的特征学习得到分类器。另外一种替代方法是late fusion,即每个特征用于分别学习其对应的分类器,再通过Long等人提出的方法将两个分割估计加权结合成一个分了结果。

这两种融合方式都有各自的优缺点。如果没有对组合特征进行额外处理,early fusion与late fusion其实是差不多的(Hariharan等人提出)。而对于late fusion而言,有可能单独一个特征是没有办法识别出某种特定目标的,但是结合它们则有可能;那么这种情况下,是无法恢复这种损失的。作者的实验证明,通过核实的归一化方法,这两种方法的效果是差不多的。

在融合特征的时候,必须要很小心地对每个特征进行归一化,从而保证组合后的特征运行正常。在经典的计算及视觉中,这个被视作cue combination problem。如下图所示,我们提取了从高层提取的特征(从左到右),也提取了低层特征,但是后者的尺度明显比前者大。后面会说到,如果想要直接结合特征,那么工作量是非常大的。因此,这里先用 L 2 L_2 L2归一化每个特征,然后再学习尺度参数,这样学习过程会更稳定。

在这里插入图片描述

L 2 L_2 L2 Normalization Layer

如前面说到的,我们需要整合两个(甚至更多的)特征向量,总体来说,它们有不同的尺度和norm。直接这样做工作量非常大。作者发现,先对每个特征进行单独的归一化,然后再分别学习尺度,会使得这个问题简单很多。

L 2 L_2 L2 norm layer不仅对于特征结合有帮助。如前文所述,在某些情况下,late fusion的效果也不错,但是需要 L 2 L_2 L2归一化的帮助。比如,如果我们希望利用低层特征来学习分类器,如Fig.3中所示,那么部分特征的范数将特别大。因此,在没有自习的权重初始化和调参的情况下是没有办法学习这些特征的。在本文工作中,在将特征用于分类器之前,作者利用了 L 2 L_2 L2范数并学习参数尺度(每个通道),从而得到了更稳定的训练过程。

具体来说,设 l \mathcal l l为我们希望最小化的损失。这里我们用summed softmax loss。对于一个有 d d d维的输入 x = ( x 1 … x d ) \mathbf{x}=(x_1 \dots x_d) x=(x1xd),作者用公式 x ^ = x ∥ x ∥ 2 \hat{\mathbf{x}}=\frac{\mathbf{x}}{\Vert \mathbf{x} \Vert^2} x^=x2x来进行 L 2 − n o r m 2 L_2-norm^2 L2norm2归一化,其中 ∥ x ∥ 2 = ( ∑ i = 1 d ∣ x i ∣ 2 ) 1 / 2 \Vert \mathbf{x}\Vert_2=\left ( \sum^d_{i=1}\vert x_i\vert^2\right )^{1/2} x2=(i=1dxi2)1/2 x \mathbf x x L 2 L_2 L2范数。

需要注意的是,如果没有进行对应的尺度缩放,直接对一层的每个输入应用归一化会明显改变这一层的尺度,并且减慢训练速度。这里提出了一个尺度缩放参数 γ i \gamma_i γi,对于每个通道,都用 y i = γ i x ^ i y_i=\gamma_i\hat x_i yi=γix^i进行归一化结果的尺度缩放。

额外参数的个数等同于整个通道数,在反向传播过程中是可以忽略的。实际上,通过设置 γ i = ∥ x ∥ 2 \gamma_i = \Vert\mathbf x\Vert_2 γi=x2,可以恢复 L 2 L_2 L2归一化的特征,如果该特征是最优的话。需要注意的是,这个以归一化形式实施很简单,而且参数尺度学习只取决于每个输入特征向量,而不需要从其他样本中整合信息(如batch normlization那样)。在训练过程中,作者使用反向传播和chain rule来计算相关尺度参数 γ \gamma γ和输入数据 x \mathbf x x的导数:

∂ l ∂ x ^ = ∂ l ∂ y ⋅ γ ∂ l ∂ x = ∂ l ∂ x ^ ( I ∥ x ∥ 2 − x x T ∥ x ∥ 2 3 ) ∂ l ∂ γ i = ∑ y i ∂ l ∂ y i x ^ i \frac{\partial \mathcal l}{\partial \mathbf{\hat x}}=\frac{\partial\mathcal l}{\partial \mathbf y}\cdot\gamma \qquad\frac{\partial \mathcal l}{\partial \mathbf x} = \frac{\partial \mathcal l}{\partial \mathbf{\hat x}}\left(\frac{\mathbf I}{\Vert \mathbf x\Vert_2}-\frac{\mathbf {xx}^T}{\Vert \mathbf x\Vert_2^3}\right)\qquad \frac{\partial \mathcal l}{\partial \gamma_i}=\sum_{y_i}\frac{\partial \mathcal l}{\partial y_i}\hat x_i x^l=ylγxl=x^l(x2Ix23xxT)γil=yiyilx^i

对于本文中的情况,我们需要将 L 2 L_2 L2范数应用于特征图的每个像素,而非整个图。可以很容易地通过像素及操作将这个公式扩展,因为其更有效。

Experiments

数据库:VOC2012
框架:Caffe
初始化:VGG-16

Best Practice of Finetuning

PASCAL-Context:
迭代次数:80k(BaselineB为160k

在这里插入图片描述
PASCAL VOC2012:
在这里插入图片描述

Combining Local and Global Features

数据库:SiftFlow,PASCAL-Context和PASCAL VOC2012
SiftFlow:
2688张图,33个语义类别。
在这里插入图片描述
PASCAL-Context:
在这里插入图片描述
PASCAL VOC2012:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Conclusion

在这里插入图片描述
在这里插入图片描述

这篇关于【阅读笔记】《ParseNet: Looking Wider to See Better》的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/485493

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi

取得 Git 仓库 —— Git 学习笔记 04

取得 Git 仓库 —— Git 学习笔记 04 我认为, Git 的学习分为两大块:一是工作区、索引、本地版本库之间的交互;二是本地版本库和远程版本库之间的交互。第一块是基础,第二块是难点。 下面,我们就围绕着第一部分内容来学习,先不考虑远程仓库,只考虑本地仓库。 怎样取得项目的 Git 仓库? 有两种取得 Git 项目仓库的方法。第一种是在本地创建一个新的仓库,第二种是把其他地方的某个