本文主要是介绍CA-用于轻型网络的坐标注意力 | CVPR2021,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Coordinate Attention for Efficient Mobile Network Design
创新点
- 为轻型网络提出 CA(Coordinate Attention)注意力机制;
- CA 注意力通过嵌入位置信息到通道注意力,避免在二维全局池化中位置信息的损失还可以使CA能够捕获长距离的依赖关系。
问题
- SE(Squeeze-and-Excitation)注意力在编码过程中忽略了位置信息的重要性;
- CBAM(CBAM: Convolutional Block Attention Module)中不能捕捉的长距离依赖关系。
方法
CA注意力如图所示。
Coordinate Information Embedding
将 CxHxW 形状的输入特征图逐通道进行平均池化,使用(H,1)和(1,W)的池化核分别按X和Y轴方向进行池化对每个通道进行编码,产生 CxHx1 和 Cx1xW 形状的特征图。
通过这种方式所产生的一对方法感知特征图可以使 CA 注意力能够在一个通道内捕获长距离的依赖关系,并且还有助于保留精确的位置信息,使网络能够更加准确的定位对象。
Coordinate Attention Generation
将上述所提取到的特征图按空间维度进行拼接,拼接成 C r \frac{C}{r} rCx1x(W+H) 形状的特征图,其中 r 用于控制块的减小率和SE中的作用相同。
再将特征图经过F1卷积变换函数(1x1卷积)和非线性激活函数产生 f 中间特征图。
在将 f 按空间维度拆分成两个张量 fh 和 fw ,形状分别为 C r \frac{C}{r} rCxH 和 C r \frac{C}{r} rCxW,再分别进行 Fh 和 Fw 卷积变换函数(1x1卷积)和 Sigmoid 激活函数得到 gh 和 gw 坐标注意力。
最后将gh 和 gw 与原输入进行相乘得到与输入相同形状的输出。
这篇关于CA-用于轻型网络的坐标注意力 | CVPR2021的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!