本文主要是介绍轻量级模型解读——ShuffleNet系列,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
和MobileNet一样,shuffleNet也是常用的轻量级模型,由旷视科技2017年首次提出
文章目录
- 1、ShuffleNetv1
- 2、ShuffleNetv2
首先上一张ShuffleNetv1和ShuffleNetv2两者参数量及ImageNet数据集上表现情况对比:
1、ShuffleNetv1
2017年,旷视科技提出ShuffleNet,该网络结构专为计算能力非常有限(比如:10-150 MFLOPs)的移动设备而设计,主要由点分组卷积(pointwise group convolution)及通道打乱(channel shuffle)两部分组成。在40MFLOPs的计算预算下,ShuffeNet在ImageNet分类上的top-1准确率比MobileNet高6.7%;在基于arm的移动设备上,ShuffleNet在和AlexNet精度一致的情况下能实现13倍的提速。
最近Xception和ResNeXt等网络结构在构建块中引入深度可分离卷积或分组卷积,从而在特征表达及计算成本之间取得平衡,但 作者关注到,他们只对3x3卷积核配备了分组卷积(减小参数),但为了能融合通道之间的信息,没有对1x1卷积核采用分组卷积,这就造成了大量计算量都集中在1x1的卷积操作;比如:ResNeXt中的每个残差单元,1x1的点卷积占据93.4%的M-adds。
但若是在depthwise卷积或分组卷积后,也对后面的1x1点卷积应用分组卷积,那通道之间的信息就得不到融合从而减弱特征表示,如下图(a)。但若是1x1点分组卷积的输入来自上一层不同的分组,那就不会存在通道特征不融合这个问题,如下图(b)。为此,作者提出先将depthwise卷积后的特征图通道打乱,然后对1x1点卷积应用分组卷积以减小参数及M-adds,如下图©。
ShuffleNet Unit
shuffleNet的创新点可以用一句话概括,在残差模块中,用来降维的1x1 Pointwise卷积变成1x1 Point Group卷积,在3x3 Depthwise卷积后将原来的1x1 Pointwise卷积变成1x1 Point Group卷积,并且在做3x3 Depthwise卷积之前,先将输入特征图按通道维度打乱,防止因为两次进行Group卷积(Depthwise卷积可看作特殊的Group卷积)导致通道之间信息“凝固”。下面是论文中给出的ShuffleNet Unit示意图,(a)是ResNet残差结构,(b)和©是ShuffleNet采用的结构,©带下采样功能。
对比(a)和(b)可以看出,画红圈部分是主要的改进点,(a)中1x1 Conv全部变成1x1 GConv,在做3x3 DWConv之前应用Channel Shuffle。
下表展示了网络对通道打乱和不打乱在ImageNet数据集上的表现,对通道打乱均好于不打乱的效果。
与MobileNet比较在ImageNet数据集上的表现:
2、ShuffleNetv2
目前,神经网络架构设计多以计算复杂度的间接度量为指导,即FLOPs(浮点运算次数,等同于M-adds,即加法运算次数)。但模型最终的推理速度还取决于其他因素,比如内存访问成本(memory access cost, MAC)及平台特性(有些平台对特定算子做了加速处理)。因此,作者建议直接在目标平台上评估推理时间作为参考标准,而不应该仅仅是考虑模型的flops。
作者结合实验及硬件限制的情况下,得出了四条高效设计网络结构的准则,这些准则不仅仅只是考虑了FLOPs。
准则1:输入输出具有相同channel的时候,内存消耗是最小的;
准则2:过多的分组卷积操作会增大MAC,从而使模型速度变慢,即MAC与分组数量g成正比;
准则3:模型中的分支数量越少,模型速度越快,分支数量多,妨碍并行;
准则4:Element-wise操作非常耗时,设计网络结构时,不能忽视;Element-wise操作有ReLU激活,偏置,short-cut,Depthwise卷积等,虽然它们的FLOPs较低,但是它们的MAC高。
所以,作者认为一个高效的网络架构应该尽量使用“平衡”卷积(相等的channel宽度),并且意识到使用分组卷积的代价,以及降低网络的分支数量和尽量减少元素操作。基于以上结论,作者设计了ShuffleNetv2,整体结构如下:
ShuffleNetv2与ShuffleNetv1对比,单元模块改进情况如下图所示:
对比(a),©两个结构,可以看到ShuffleNetv2将v1版本中残差结构内部的1x1 GConv变回了1x1Conv,这条改进对应准则2;为了使用1x1Conv又不想增加太多计算量,所以,作者将输入做了Channel split,一条分支c’个通道,直接short-cut到后面,一个分支是C-c’个通道,经过3个卷积层,且每个卷积层输入输出通道相同,这条对应准则3和1;将channel shuffle操作调整到了模块最后,并且将分支合并时的Add和ReLU变成了Concat操作,这条对应准则4。
ShuffleNetv2与其他分类网络在ImageNet数据集上的表现比较如下:
总结:ShuffleNetv2的工程性很强,特别是关于轻量级模型设计的四条准则,都是结合了模型实际运行在硬件平台上的内存访问成本及硬件特性从而得到的结论,很值得我们在实际应用中参考。
这篇关于轻量级模型解读——ShuffleNet系列的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!