MSCNN论文解读-A Unified Multi-scale Deep Convolutional Neural Network for Fast Object Detection

本文主要是介绍MSCNN论文解读-A Unified Multi-scale Deep Convolutional Neural Network for Fast Object Detection,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 多尺度深度卷积神经网络进行快速目标检测:

两阶段目标检测器,与faster-rcnn相似,分为an object proposal network and an accurate detection network. 文章主要解决的是目标大小不一致的问题,尤其是对小目标的检测,通过多层次的结构,实现多尺度的目标检测。

之前所使用的简单的单一尺度的目标检测器通常为了识别出图片中大小适中的目标而将感受野设定为一个适当的大小,这种设定对于较大或较小的目标的识别效果都比较差。通常解决小目标的识别是通过将输入图片进行上采样的方法,但是这种方法所消耗的内存和计算量都很大,所以本篇文章所采用的多尺度目标检测器能够解决这种目标大小与感受野不一致的现象,每一个检测层只着重检测与这一层尺寸相匹配的目标。换句话说,就是在网络的浅层检测小目标,在深层检测大目标。

 

文章第二个贡献在于利用特征上采样代替输入图片上采样,扩大小目标的分辨率,提高识别准确率。这一部分是利用一个反卷积层实现,采用的方法是双线性插值的方法,减少了内存和计算的消耗。

第三部分是目标检测网络的第一个阶段-生成候选框的子网络(Multi-scale Object Proposal Network )。这一部分分三个主要部分。

3.1多尺度检测

多尺度检测分为两种方法:(1)利用一个单一尺度的分类器并将输入图片多次重新缩放成不同比例进行检测,使分类器能够与所有尺寸的目标相匹配。(2)利用卷积神经网络特征的复杂性。本文采用的是一个多尺度的检测方法,在卷积过程中的多个卷积层中进行检测,但是输入采用单一尺度的图片,并且每个检测层只检测固定尺寸大小的图片。

3.2架构

 

文章中的MS-CNN proposal network如图三所示,图像中间是网络的主干,同时在一些卷积层中带有分支结构。其中每个分支都是一个单一尺度的目标检测器。注意在第4-3个卷积层后带有一个缓冲层,是为了防止低层次卷积层在反向传播过程中影响主干网络的梯度。

整个proposal network子网络的损失用W来表示,S是训练目标的一个集合。其中整体的损失数由公式(1)进行计算,是将每一个检测层的损失叠加在一起作为整体损失,损失的计算与faster r-cnn相似,分别计算分类损失和回归损失。分类采用对数损失,回归采用SMOOTH-L1损失。

3.3采样

对于每一个检测层训练样本都分为正、负样本。其中候选框是通过一个Anchor作为滑动窗口的中心,在特征映射上滑动产生的。Anchor的大小设置与卷积核的大小相关,并且不同检测层的大小设置也不同,具体设置如表一所示。当候选框与真实样本的IOU值大于等于0.5时,被标记为正样本,当IOU值小于0.2时被标记为负样本,其余的丢弃。

 

但是对于一张自然图片,目标与非目标的比例通常不匹配。采样就是要解决这种正负样本不平衡的现象,通常是对负样本进行采样,文中介绍了三种方法分别为:(1)随机采样,即随机的选取负样本。(2)自定义方法,文中是将所有负样本按照分数进行排名,选取前n个强负样本。(3)混合方法,一半采用随机采样,一半采用按分数排名。

为了保证每一个检测层只检测这一层次所对应尺度的目标,在训练样本中,这一层次的训练样本必须包含所对应范围内的所有尺寸。那么就可能会出现一个检测层中没有正样本的出现,导致正负样本比例失调,使学习的模型不稳定,所以在计算分类损失时将检测到的正负样本乘以不同的系数一减少负样本对整体的影响。

第四部分是目标检测子网络的介绍,在加入检测子网络后,整个网络的损失通过公式(6)进行计算,前一部分为候选框子网络的损失,后一部分为检测子网络的损失。其中检测子网络的损失计算公式与faster r-cnn相似,M+1为M个类别和一个背景。第四部分分为两个主要部分:

4.1 cnn特征值插图

在第4-3个卷积层后通过反卷积加入一个卷积层,实现特征映射的上采样,对于小目标的识别更加准确。

4.2上下文嵌入

如图绿色框代表检测到的目标候选框,蓝色框为带有该目标的上下文信息的候选框,其中蓝色框为绿色框的1.5倍,通过将这两个框进行堆叠,在通过一个降维卷积层将冗余的信息进行压缩,在不损失准确率的情况下减少了参数。

 

这篇关于MSCNN论文解读-A Unified Multi-scale Deep Convolutional Neural Network for Fast Object Detection的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/550009

相关文章

Deep Learning复习笔记0

Key Concept: Embedding: learned dense, continuous, low-dimensional representations of object 【将难以表示的对象(如图片,文本等)用连续的低维度的方式表示】 RNN: Recurrent Neural Network -> for processing sequential data (time se

多头注意力机制(Multi-Head Attention)

文章目录 多头注意力机制的作用多头注意力机制的工作原理为什么使用多头注意力机制?代码示例 多头注意力机制(Multi-Head Attention)是Transformer架构中的一个核心组件。它在机器翻译、自然语言处理(NLP)等领域取得了显著的成功。多头注意力机制的引入是为了增强模型的能力,使其能够从不同的角度关注输入序列的不同部分,从而捕捉更多层次的信息。 多头注意力机

Python: create object

# encoding: utf-8# 版权所有 2024 涂聚文有限公司# 许可信息查看:# 描述:# Author : geovindu,Geovin Du 涂聚文.# IDE : PyCharm 2023.1 python 3.11# Datetime : 2024/6/15 18:59# User : geovindu# Product :

康奈尔大学之论文审稿模型Reviewer2及我司七月对其的实现(含PeerRead)

前言 自从我司于23年7月开始涉足论文审稿领域之后「截止到24年6月份,我司的七月论文审稿GPT已经迭代到了第五版,详见此文的8.1 七月论文审稿GPT(从第1版到第5版)」,在业界的影响力越来越大,所以身边朋友如发现业界有相似的工作,一般都会第一时间发给我,比如本部分要介绍的康奈尔大学的reviewer2 当然,我自己也会各种看类似工作的论文,毕竟同行之间的工作一定会互相借鉴的,我们会学他们

自动驾驶规划中使用 OSQP 进行二次规划 代码原理详细解读

目录 1 问题描述 什么是稀疏矩阵 CSC 形式 QP Path Planning 问题 1. Cost function 1.1 The first term: 1.2 The second term: 1.3 The thrid term: 1.4 The forth term: 对 Qx''' 矩阵公式的验证 整体 Q 矩阵(就是 P 矩阵,二次项的权重矩阵)

【论文精读】分类扩散模型:重振密度比估计(Revitalizing Density Ratio Estimation)

文章目录 一、文章概览(一)问题的提出(二)文章工作 二、理论背景(一)密度比估计DRE(二)去噪扩散模型 三、方法(一)推导分类和去噪之间的关系(二)组合训练方法(三)一步精确的似然计算 四、实验(一)使用两种损失对于实现最佳分类器的重要性(二)去噪结果、图像质量和负对数似然 论文:Classification Diffusion Models: Revitalizing

【python】python葡萄酒国家分布情况数据分析pyecharts可视化(源码+数据集+论文)【独一无二】

👉博__主👈:米码收割机 👉技__能👈:C++/Python语言 👉公众号👈:测试开发自动化【获取源码+商业合作】 👉荣__誉👈:阿里云博客专家博主、51CTO技术博主 👉专__注👈:专注主流机器人、人工智能等相关领域的开发、测试技术。 python葡萄酒国家分布情况数据分析pyecharts可视化(源码+数据集+论文)【独一无二】 目录 python葡

论文阅读--Efficient Hybrid Zoom using Camera Fusion on Mobile Phones

这是谷歌影像团队 2023 年发表在 Siggraph Asia 上的一篇文章,主要介绍的是利用多摄融合的思路进行变焦。 单反相机因为卓越的硬件性能,可以非常方便的实现光学变焦。不过目前的智能手机,受制于物理空间的限制,还不能做到像单反一样的光学变焦。目前主流的智能手机,都是采用多摄的设计,一般来说一个主摄搭配一个长焦,为了实现主摄与长焦之间的变焦,目前都是采用数字变焦的方式,数字变焦相比于光学

【进阶篇-Day5:JAVA常用API的使用(Math、BigDecimal、Object、包装类等)】

目录 1、API的概念2、Object类2.1 Object类的介绍2.2 Object的toString()方法2.3 Object的equals()方法2.4 Objects概述 3、Math类4、System类5、BigDecimal类6、包装类6.1 包装类的概念6.2 几种包装类(1)手动转换包装类:(2)自动转换包装类:(3)Integet常用方法:(4)练习: 1

【LLM之KG】CoK论文阅读笔记

研究背景 大规模语言模型(LLMs)在许多自然语言处理(NLP)任务中取得了显著进展,特别是在零样本/少样本学习(In-Context Learning, ICL)方面。ICL不需要更新模型参数,只需利用几个标注示例就可以生成预测。然而,现有的ICL和链式思维(Chain-of-Thought, CoT)方法在复杂推理任务上仍存在生成的推理链常常伴随错误的问题,导致不真实和不可靠的推理结果。