本文主要是介绍Overcoming Classififier Imbalance for Long-tail Object Detection with Balanced Group Softmax 阅读笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
- 这是CVPR2020的一篇文章,关于detection中的类别不平衡问题的解决方法
- 提出了一个新的softmax用于解决目标检测中的类不平衡问题
- 在类平衡数据集上表现很好的检测模型在类不平衡数据集上效果下降很严重,经过实验发现,分类器参数对不同类别的权重由于类不平衡而变得不平衡,导致对少见的类别的分数较小,因而容易将少见的类别误分类为多见的其它类别:
- 之所以出现这种原因是因为softmax会压制其它类别,因此domain类别很多的时候,对其它尾部类别压制很严重。
- 目前对长尾分布的目标检测的解决方法有:
- 采取类别平衡的采样策略
- 对不同类别或不同图片的loss采取不同的权重
- 但是这些方法增加了训练时间,并且对尾部类别容易过拟合,调节loss权重的方法对超参数很敏感,并且由于背景类的存在其实并不适用于目标检测(因为背景类无法统计数量)
- 因此利用一个方法,就是把不同类别按实例的数量分为几组,数量接近的分到同一组里,然后在组内用softmax;此外由于背景类无法统计数量,另设了一个背景组,背景组用的是sigmoid。同时,在每个组里设一个others类,表明不属于该组。
- 训练的时候,对于每组的others要使用采样策略使得others和该组其它类有相近的实例。测试的时候,最终的概率输出是这样的,背景类概率为背景组背景类的概率,其它类概率为背景组others类的概率乘以该类在该类所在组的softmax概率。
这篇关于Overcoming Classififier Imbalance for Long-tail Object Detection with Balanced Group Softmax 阅读笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!