CBAM: Convolutional Block Attention Module 论文笔记

2024-03-05 01:32

本文主要是介绍CBAM: Convolutional Block Attention Module 论文笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Abstract

该论文提出 Convolutional Block Attention Module (CBAM),一个简单但是有效的用于前馈卷积注意力模块。给出中间特征图,模块可以顺序的从两个维度——通道和空间来推断 attention map,然后将 attention map 和 input feature map 相乘得到自适应的特征细化。并且CBAM是轻量级的,可以无缝整合到任何CNN结构中,并且开销可忽略不计,还可以和CNN一起端到端的进行训练。

Introduction

为提高 CNN 的性能,现有的研究主要关注三个重要的方面:深度、宽度和基数(cardinality)。
与这些方面不同,论文的研究聚焦于另一个架构设计的方面:attention。Attention 不仅仅告诉模型该关注哪里,还提升了兴趣点的表示。论文的目标就是通过使用注意力机制来提升表达能力:关注重要特征、抑制不重要的。我们的模型强调空间和通道这两个主要维度的有意义的特征。为达成这个目标,论文顺序采用通道和空间注意力模型。这样不同的分支可以分别学习去 attend ‘what’ and ‘where’。

主要贡献:

  1. 提出CBAM,一个简单有效的注意力模型,可以广泛应用来增强CNN的表示能力。
  2. 通过大量的 ablation studies 验证该注意力模型的有效性。
  3. 通过插入我们的轻型模块,我们验证了各种网络的性能在多个 benchmarks (ImageNet-1K、MS COCO和VOC 2007)上有很大提高。

Related Work

为了更好地捕捉视觉结构,人类利用一系列 partial glimpses,有选择地聚焦于显著部分。
我们不是直接计算3d注意力图,而是将学习通道注意力和空间注意力的过程分解。这样获得了更少的计算和参数开销。
和之前只使用 average pool 不同,CBAM同时使用了 max pool 和 average pool。这样可以更好的计算 channel 和 spatial attention。

Convolutional Block Attention Module

整体公式概括如下:
在这里插入图片描述
F为中间特征图,Mc是通道注意图,Ms是空间注意图。F’’ 是最后的细化输出。

总体图示如下:
在这里插入图片描述

Channel Attention Module

我们使用通道注意图来利用通道间特征的关系。为了高效计算 channel attention,论文缩小了输入特征图的空间维度。至今为止,平均池化通常被用来聚合空间信息。论文认为最大池化收集了另一个重要的信息来推断更精细的通道方向的注意力。因此论文同时使用平均池化和最大池化特征,并认为这样可以大幅提升网络的表达能力。
进行两种池化后得到的平均池化特征和最大池化特征被送入到一个共享的MLP网络,其中含有一个隐藏层。为减少参数开销,隐藏激活层被设置为 C/r * 1 * 1。其中 r 为减小倍率。
总体 channel attention 可描述如下:
在这里插入图片描述

Spatial Attention Module

我们生成一个空间注意图通过利用特征的空间关系。空间注意关注于有信息的部分在哪,是对通道注意的一个补充。为计算空间关注,首先在通道维度使用平均池化和最大池化,然后合并他们来生成一个特征描述。使用通道维度上的池化操作,可以 highlight informative regions。对于生成的特征描述,使用一个卷积层来生成空间特征图,该图编码了哪里应该强调或抑制。
总体可描述为:
在这里插入图片描述
最后,论文发现,sequential arrangement 是比 parallel arrangement 效果要好的。

Experiments

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

这篇关于CBAM: Convolutional Block Attention Module 论文笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/774905

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

什么是 Flash Attention

Flash Attention 是 由 Tri Dao 和 Dan Fu 等人在2022年的论文 FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness 中 提出的, 论文可以从 https://arxiv.org/abs/2205.14135 页面下载,点击 View PDF 就可以下载。 下面我

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓