本文主要是介绍Revisiting-Dilated-Convolution-A-Simple-Approach-for-Weakly-and-Semi-Supervised,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
when
- 魏云超组的18年
- cvpr spot
who
- 弱监督语义分割问题的新方法,用扩张卷积得到注意力图,可能能够在GAIN的大框架上面修改
why 提出
- 尽管弱监督分割方法取得了显着的进步,但仍然不如全监督的方法。我们认为性能差距主要来自他们学习从图像级监督产生高质量密集对象定位图的限制。
- 为了弥补这种差距,我们重新审视了空洞卷积[1]并揭示了如何以一种新颖的方式利用它来有效地克服弱监督分割方法的这一关键限制。具体而言,我们发现不同的扩张率可以有效地扩大卷积核的感受域,更重要的是将周围的鉴别信息转移到非鉴别对象区域,促进这些区域在对象定位图中的出现。
- 然后,我们设计了一个通用的分类网络,配备了不同扩张率的卷积块。它可以生成密集可靠的对象定位图,并有效地受益于弱监督和半监督语义分割。尽管显而易见,但我们提出的方法获得了优于现有技术的优越性能。
- 特别是,它在Pascal VOC 2012测试集上实现了60.8%(弱监督设置,仅有图像级标签可用)和67.6%(半监督设置,1,464个分割mask可用)的mIoU得分,这是最先进的效果。
where(适用范围,优点,缺点, 创新点,以前的方法)
出发点
-
弱监督的图像识别方法 [11, 15, 16, 19, 23, 38-42, 44]已被广泛研究,因为它们不需要昂贵的人力。 其中,最吸引人的是学习仅从图像级标注中分割图像。 对于这样的方法,可以说仍然未解决的最关键的挑战是如何准确和密集地定位对象区域以获得用于启动和改进分割模型训练的高质量对象线索[1, 20, 45]。
-
最近,一些自上而下的方法 [43, 46] 提出利用分类网络为对象定位产生特定于类的注意力线索。然而,直接采用由图像分类模型产生的注意力只能识别目标对象的小的鉴别区域,其对于训练良好的分割模型而言不够密集和广泛。例如,在图1(b)的第二行中示出了由现有技术的类激活映射(CAM)[46]产生的一些类特定区域定位的样本。可以观察到CAM在通常存在大对象的情况下几乎不产生密集对象区域,这偏离了语义分割任务的要求。 CAM发现的那些区域通常散布在目标物体周围,例如,一些鉴别性的部分,如孩子的头部和手部。无法学习从图像级监督产生密集对象定位是开发性能良好的弱监督分割模型的关键障碍。基于这样的观察,我们提出将鉴别知识从那些稀疏突出的区域转移到相邻的对象区域,从而形成密集的对象定位,这可以基本上有利地提升分割模型学习。
优点
-
为此,我们重新审视了流行的扩张卷积,并发现它确实提供了适当利用的有希望的解决方案。 扩张卷积最初由Chen等人 [1, 2] 引入,用于语义分割。 一个关键的优点是它可以有效地扩大感受野大小以结合上下文而不引入额外的参数或计算成本。 我们发现这样的特征很好地适合跨图像区域传播鉴别信息并突出显示非鉴别对象区域以产生密集对象定位。 由此推动,我们引入了多个扩张卷积块来增强标准分类模型,如图1(a)所示。
-
特别是,我们提出的方法通过改变卷积核的扩张率来扩展多尺度的感受域。 通常,分类网络能够识别具有高响应的一个或多个小鉴别部分以正确识别图像。 通过扩大感受野,具有低响应的物体区域可以通过感知周围的高响应环境而获得改善的鉴别力。 这样,目标对象的高响应部分的鉴别信息可以以多个尺度传播到相邻的对象区域,使得它们更容易被分类模型识别。 我们利用CAM [46]为每个卷积块生成对象定位图。 如图1(a)所示,卷积块只能定位两个小的鉴别区域而不扩大扩张率,即d = 1.通过逐渐增加扩张率(从3到9),发现了更多的物体相关区域。
-
然而,一些真正的负面区域可能以大的扩张率错误地突出显示(例如,对应于d = 9的定位图)。 然后,我们提出了一种简单而有效的抗噪声融合策略来解决这个问题。 该策略可以有效地抑制由放大的感受野激活的与物体无关的区域,并将由不同的扩张块产生的定位图融合成整体突出的物体区域。 从图1(b)所示的例子可以看出,我们的方法对于尺度变化非常稳健,并且能够密集地定位目标对象。
创新点
- 我们使用由我们提出的方法生成的定位图来生成用于训练分割模型的分割mask。 我们的方法是通用的,可以用于以弱监督和半监督方式学习语义分割网络。
这篇关于Revisiting-Dilated-Convolution-A-Simple-Approach-for-Weakly-and-Semi-Supervised的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!