首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐

【论文复现】CBAM: Convolutional Block Attention Module

  • 25-03-03 21:22
  • 2251
  • 5585
blog.csdn.net

CBAM: Convolutional Block Attention Module

论文原文

代码实现:PyTorch

Abstract

这是今年ECCV2018的一篇文章,主要贡献为提出一个新的网络结构。之前有一篇论文提出了SENet,在feature map的通道上进行attention生成,然后与原来的feature map相乘。这篇文章指出,该种attention方法只关注了通道层面上哪些层会具有更强的反馈能力,但是在空间维度上并不能体现出attention的意思。CBAM作为本文的亮点,将attention同时运用在channel和spatial两个维度上,CBAM与SE Module一样,可以嵌入了目前大部分主流网络中,在不显著增加计算量和参数量的前提下能提升网络模型的特征提取能力。

近几年,随着CNN的兴起,很多结构新颖、有效的网络结构被提出,比如ResNet、ResNext等;最近,大部分论文证明了在网络结构中引入attention机制可以提升网络模型的特征表达能力。attention不止能告诉网络模型该注意什么,同时也能增强特定区域的表征。本文的CBAM在channel和spatial两个维度上引入了attention机制。CBAM结构概览如下所示:

1

作者在ImageNet-1K上进行了测试,证明增加CBAM模块以后目前大部分网络的分类错误率都有一定程度的降低。同时通过grad-CAM进行可视化分析,可以发现增加CBAM模块的网络模型在推理过程中会将注意力更准确的放在正确待分类对象上。通过额外的实验(MS COCO和VOC 2007),作者也证明了增加CBAM在目标检测中也能取得更好的检测效果。

总结一下,本文的贡献点主要有以下三点:

  1. 提出了一个高效的attention模块—-CBAM,该模块能够嵌入到目前的主流CNN网络结构中。
  2. 通过额外的分离实验证明了CBAM中attention的有效性。
  3. 在多个平台上(ImageNet-1K,MS COCO和VOC 2007)上证明了CBAM的性能提升。

Related Work

感兴趣的同学可以关注原论文。

Convolutional Block Attention Module

当输入FF作为input feature map时,本文提出的CBAM主要对其进行以下两个运算:

2

其中等号右边的操作符表示的是element-wise的点乘。McMc表示在channel维度上做attention提取的操作,MsMs表示的是在spatial维度上做attention提取的操作。下图分别表示了Channel Attention Module和Spatial Attention Module的处理过程。

3

Channel attention module

这部分的工作与SENet很相似,都是首先将feature map在spatial维度上进行压缩,得到一个一维矢量以后再进行操作。与SENet不同之处在于,对输入feature map进行spatial维度压缩时,作者不单单考虑了average pooling,额外引入max pooling作为补充,通过两个pooling函数以后总共可以得到两个一维矢量。global average pooling对feature map上的每一个像素点都有反馈,而global max pooling在进行梯度反向传播计算只有feature map中响应最大的地方有梯度的反馈,能作为GAP的一个补充。

具体做法如下,以FF表示输入feature map,FcavgFcavg和FcmaxFcmax分别代表经过global average pooling和global max pooling计算后的feature,W0和W1代表的是多层感知机模型中的两层参数,在这部分的计算可以用如下公式表示:

4

值得注意的是,多层感知机模型中W0和W1之间的feature需要使用ReLU作为激活函数去处理。

Spatial attention module

这部分工作是论文跟SENet区别开来的一个重要贡献,除了在channel上生成了attention模型,作者表示在spatial层面上也需要网络能明白feature map中哪些部分应该有更高的响应。首先,还是使用average pooling和max pooling对输入feature map进行压缩操作,只不过这里的压缩变成了通道层面上的压缩,对输入特征分别在通道维度上做了mean和max操作。最后得到了两个二维的feature,将其按通道维度拼接在一起得到一个通道数为2的feature map,之后使用一个包含单个卷积核的隐藏层对其进行卷积操作,要保证最后得到的feature在spatial维度上与输入的feature map一致,如同上图中下部分网络所示。

定义经过max pooling和average pooling操作后的feature map为,Fsavg∈R1∗H∗W和Fsmax∈R1∗H∗W,该部分的数学处理可以用以下公式表示:

5

σ表示的是sigmoid激活函数,该部分显示的卷积层使用了7x7的卷积核,其实后面的实验中作者也是用了3x3的卷积核进行实验,总体来说7x7的卷积会表现更好。

Arrangement of attention modules

两个attention的module,以何种顺序去设置和组合同样很重要,作者在之后的实验中,也体现了channel-first、spatial-first和parallel的实验结果。

Experiments

这部分展示了论文的实验,作者总共在三个平台上对CBAM模块进行测试。首先作者展示了CBAM的有效性,然后对CBAM中的组合结构进行了分离实验。下图中展示了将CBAM嵌入到ResNet结构中的示意图。

6

在ImageNet-1K的实验中,作者在测试时对验证集的处理为size为224x224的center crop,初始学习率为0.1,每隔30个epochs下降为之前的0.1倍,总共训练90个epochs。

Channel attention

这部分作者对比了论文的channel attention方法,主要以ResNet50作为baseline,同时对比了SE-ResNet50和本文的两个实验,分别是ResNet50+MaxPool和ResNet50+MaxPool & AvgPool,实验结果如下所示:

7

通过与baseline的对比可以发现,attention方法能提升网络的表征能力,在其中使用了AvgPool作为spatial压缩的方法对比MaxPool体现出了更好的优越性,当将两者结合在一起以后网络的表征能力.

Spatial attention

这一部分在channel attention的基础上讨论了spatial attention的内部组成对全局的影响,实验结果如下:

8

k表示了最后用于得到feature map的卷积层中卷积核的大小,倒数四行中括号的第一个操作,分别表示作者使用avg&max或者1x1的卷积层去将输入feature map进行通道上的压缩。最终,使用了7x7的卷积核和avg&max的通道压缩方式可以得到最好的分类结果,表示了更大的卷积核在深层上能够组合更加全局的特征,这对分类任务是证明有效的。

Arrangement of the channel and spatial attention

关于channel attention module和spatial attention module的组合顺序,论文也做了实验,实验结果如下:

9

在SE-ResNet50作为baseline的对比中,作者考虑了三种情况:channel-first、spatial-first和parall的方式,可以看到,channel-first能取得更好的分类结果。

Conclusion

总的来说,这篇论文提出的CBAM还是挺有意思的,能更直观、更有逻辑性的表达了网络的设计思路,就是在channel和spatial维度上都生成attention map对输入特征进行约束增强处理。同时,作者也展示了这种方法在多种任务上都能取得较好的成绩。总的来说是一篇不错的文章。

文章知识点与官方知识档案匹配,可进一步学习相关知识
Python入门技能树首页概览416654 人正在系统学习中
注:本文转载自blog.csdn.net的luuuyi的文章"https://blog.csdn.net/u013738531/article/details/82731257"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2491) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

101
推荐
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2025 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top