本文主要是介绍Repulsion loss的详细理解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
本文由同济大学和北京大学合作发表于CVPR2018,聚焦于loss层面,为遮挡情况下的行人检测问题提供了一种行之有效的解决方案。
论文:https://arxiv.org/abs/1711.07752
一、问题提出
1.行人遮挡会造成什么问题
当我们在做行人检测时,人与人之间会存在互相遮挡。遮挡会造成2个问题:
1.设红色框为目标框T(man)的预测框P,旁边也有个真实框B(woman),我们的P可能会被往B去移动(shift)。
2.检测器对NMS的阈值的选取更为敏感。如果NMS阈值选取过小,周围的目标框会被过滤掉;如果NMS阈值选取过大,会带更多的虚检。
2.非极大抑制选取更敏感
第二点的影响是不是不太直观?没关系,我们先详细回顾一下非极大抑制NMS的实现过程:
在检测器中,一张图片可能会有n个检测目标,每个检测目标都会有很多检测框(proposals/anchors/bbox)。
对于每个检测目标来讲,它的附近都会有一簇IoU很高的检测框(相较于其他的检测框来说),所以针对同一个检测目标,有必要只留下置信度(score)最高的那个检测框作为该物体的检测框,其他的都应该过滤掉。
实现步骤:
1、假定有6个带置信率的region proposals,并预设一个IOU的阈值如0.7。2、按置信率大小对6个框排序: 0.95, 0.9, 0.9, 0.8, 0.7, 0.7。3、设定置信率为0.95的region proposals为一个预测框;4、在剩下5个region proposals中,去掉与0.95物体框IOU大于0.7的。5、重复2~4的步骤,直到没有region proposals为止。6、每次获取到的最大置信率的region proposals就是我们筛选出来的目标。
那么问题来了,对于有遮挡的行人数据集,这里过滤掉的检测框有没有对隔壁检测目标IoU最高却被我们这个检测目标的检测框给抑制掉的呢?看图。
NMS阈值选取过小:针对目标T(man),检测框P与T的IoU最大,P会视为T的预测框。如果NMS选取过小,旁边目标B的预测框(woman)假设为K,那么K会被选作T的检测框,然后被P抑制掉。
NMS阈值选取过大:与上面是同样的道理,会多出许多检测框,带来更多的假正例。
二、Repulsion loss
既然已经清楚影响是怎样造成的,来看看解决方案。Repulsion loss的作用在于,要求预测框P靠近(吸引)自己的真实目标T的同时,还要求P远离(排斥)T旁边的其他真实框(例如B)。
1.Replusion loss:
可以看到该损失函数中包含3个模块,下面来分别作解释。
2. L A t t r L_{Attr} LAttr
该模块的作用是使得预测框和它的目标框尽可能接近。
L A t t r L_{Attr} LAttr采用的是通用目标检测中的回归loss,可以采用欧式距离,SmoothL1距离以及IoU距离。但为了和其他算法有可比性,这里采用的是SmoothL1距离。
P ∈ P + P∈P+ P∈P+(所有的正样本):正样本就是根据设定的IoU阈值来划分出来的检测框P的集合。
G A t t r P G^P_{Attr} GAttrP: 为每一个检测框P匹配一个有最大IoU值的真实目标框(Ground truth)
B P B^P BP: 从检测框P做回归偏移(shift)后得到的预测框。
清楚这些基础概念后,这个模块的函数就好理解了,smoothL1的公式如下:
从公式可以很直观的看出, B P B^P BP和 G A t t r P G^P_{Attr} GAttrP的左上角坐标以及宽高 ( x , y , w , h ) (x,y,w,h) (x,y,w,h)分别进行smoothL1计算,然后累加和。
优化的目标就是让两者之间距离缩短,那就达到了预测框和它的目标框尽可能接近的目的。
3. L R e p G T L_{RepGT} LRepGT
L R e p G T L_{RepGT} LRepGT是使得预测框P和周围的目标框G尽可能远离 。
这里的周围的目标框是除了已经匹配上的目标框以外的IoU最大的目标框,用 G R e p P G^P_{Rep} GRepP表示。
即 G R e p P G^P_{Rep} GRepP是除了与预测框P匹配了的Ground_truth-A以外,其他剩下的Ground_truth中与预测框P的IoU最大的Ground_truth-B。
Q1: L R e p G T L_{RepGT} LRepGT采用的smoothLn和IoG,那么为什么不适用IoU呢?
A : 如果选用IoU,那么只要预测框变得足够大(即增大并集)就能使得 L R e p G T L_{RepGT} LRepGT减小。IoG不同,GT是固定的,只能优化分子部分(即增大交集)。
Q2.为什么采用smoothLn?
A : Ln既保留了L1的鲁棒性又吸收L2的快速收敛性。
4. L R e p B o x L_{RepBox} LRepBox
L R e p B o x L_{RepBox} LRepBox:使得预测框Pi和周围的预测框Pj尽可能远离, P i P_i Pi和 P j P_j Pj分别配上不同的预测框,他们之间的距离采用的是IoU。定义如下:
从式(4)中可以发现当预测框Pi和周围的其他预测框Pj的IoU越大,则产生的loss也会越大,因此可以有效防止两个预测框因为靠的太近而被NMS过滤掉,进而减少漏检。
参考文献:
[1].CVPR18|Repulsion loss:遮挡下的行人检测
[2].Repulsion Loss: Detecting Pedestrians in a Crowd
[3].NMS算法原理及代码验证
这篇关于Repulsion loss的详细理解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!