【CVPR19 超分辨率】(Oral)Second-order Attention Network for Single Image Super-Resolution

本文主要是介绍【CVPR19 超分辨率】(Oral)Second-order Attention Network for Single Image Super-Resolution,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

今天介绍一篇CPVR19的Oral文章,用二阶注意力网络来进行单图像超分辨率。作者来自清华深研院,鹏城实验室,香港理工大学以及阿里巴巴达摩院。
文章地址
github code
文章的出发点:现存的基于CNN的模型仍然面临一些限制:

  1. 大多数基于CNN的SR方法没有充分利用原始LR图像的信息,导致相当低的性能
  2. 大多数CNN-based models主要专注于设计更深或是更宽的网络,以学习更有判别力的高层特征,却很少发掘层间特征的内在相关性,从而妨碍了CNN的表达能力。

**文章的大体思路:**提出了一个深的二阶注意力网络SAN,以获得更好的特征表达和特征相关性学习。特别地,提出了一个二阶通道注意力机制SOCA来进行相关性学习。同时,提出了一个non-locally增强残差组NLRG来捕获长距离空间内容信息。
话不多说,直接看方法

方法

在这里插入图片描述

总体网络框架

首先,SAN主要分为四个部分,浅层特征提取,基于非局部增强残差组的深度特征提取,上采样模块以及重建模块。采用一层卷积层来提取浅层特征:
在这里插入图片描述
然后深度特征:
在这里插入图片描述
上采样特征:
在这里插入图片描述
最后重建:
在这里插入图片描述

非局部增强残差组NLRG

在这里插入图片描述
NLRG包括数个区域级非局部模块RL-NL和一个同源残差组结构SSRG。
SSRG包括相当于就是G个局部模块LSRAG加上一个同源残差连接结构SSC,所谓同源残差连接,就是把LR的特征加到每个group的输入x中,这种连接不仅可以帮助深度CNN的训练,同时还可以传递LR图像中丰富的低频信息给high-level的层。

在这里插入图片描述
Wssc是一个可学习参数,一开始被设置为0。对于每个group来说,都会收到SSC传递过来的F0
在这里插入图片描述
RL-NL模块
在这里插入图片描述
通常来说,non-local模块是用来在high-level任务中捕获整幅图像的长范围依赖的。但是,全局non-local操作可能会受限于:

  1. 全局non-local操作需要大量的计算量,如果特征size很大。
  2. 对于low-level的任务来说,在一定的区域范围中进行non-local操作被证明是有效的

因此,在SAN中,我们将图像划分为kxk大小,在每个region中进行non-local操作。
LSRAG模块
在这里插入图片描述
像其他的CNN模型一样,SAN也将网络模块化,每个LSRAG模块都用了local 的residual 连接
在这里插入图片描述
在LSRAG的末端,有一个SOCA模块,即二阶通道注意力机制。
SOCA
在这里插入图片描述
相比于SENet里面的通道attention使用的是一阶统计信息(通过全局平均池化),本SOCA探索了二阶特征统计的attention。方法:

  1. 协方差归一化:
    协方差可以用来描述变量之间的相关性,所以对于HxWxC的特征,reshape为WH(C个维度),可以用协方差矩阵描述C个通道之间的相关性。采样协方差矩阵可以被计算得到:
    在这里插入图片描述
    其中在这里插入图片描述,I和1分别是sxs的单位矩阵(对角线是1)和全1矩阵。
    对得到的协方差矩阵用半正定矩阵进行奇异值分解得到
    在这里插入图片描述
    U是一个正交矩阵,对角线元素都是奇异值(非递增)。
    然后协方差归一化被转化为奇异值的秩:
    在这里插入图片描述
    α是一个正数,论文中被设置为二分之一(如果是1则没有归一化)
    channel attention
    类似于SE Block,一层卷积用来降维(通常是十六分之一),一层恢复通道数。

在这里插入图片描述
这里的z是通过上面协方差归一化后得到的
在这里插入图片描述

用牛顿迭代法求协方差归一化

因为原始的EIG在GPU上没办法快速运行,所以作者使用了牛顿迭代法逼近近似值。
在这里插入图片描述
在这里插入图片描述

这篇关于【CVPR19 超分辨率】(Oral)Second-order Attention Network for Single Image Super-Resolution的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/222431

相关文章

1_Image和Matrix的使用

参考博文: https://www.cnblogs.com/bomo/archive/2013/03/28/2986573.html

多头注意力机制(Multi-Head Attention)

文章目录 多头注意力机制的作用多头注意力机制的工作原理为什么使用多头注意力机制?代码示例 多头注意力机制(Multi-Head Attention)是Transformer架构中的一个核心组件。它在机器翻译、自然语言处理(NLP)等领域取得了显著的成功。多头注意力机制的引入是为了增强模型的能力,使其能够从不同的角度关注输入序列的不同部分,从而捕捉更多层次的信息。 多头注意力机

【QML】用 Image(QQuickPaintedItem) 显示图片

大体功能: 频繁地往界面推送图片,帧率达到视频效果。捕获画布上的鼠标事件和键盘事件。 代码如下: // DrawImageInQQuickPaintedItem.pro 代码如下:QT += quick# You can make your code fail to compile if it uses deprecated APIs.# In order to do so, uncom

GIM: Learning Generalizable Image Matcher From Internet Videos

【引用格式】:Shen X, Yin W, Müller M, et al. GIM: Learning Generalizable Image Matcher From Internet Videos[C]//The Twelfth International Conference on Learning Representations. 2023. 【网址】:https://arxiv.or

BookSim2 安装步骤教程 Network-on-Chips (NoCs) 片上网络模拟器 含视频

BookSim简介 BookSim2 一个用于Network-on-Chips (NoCs) 芯片上网络的周期精确模拟器。该模拟器的设计是为了实现网络组件的模拟灵活性和精确建模。  BookSim1 是一个通用的网络模拟器,并不专门针对片上环境。不支持在片上网络环境中提出的一些更先进的功能和拓扑结构。 背景 随着集成在单个芯片上的核心和模块数量的不断增加,片上网络正成为现代微处理器不可或缺

【Computer Security : Art and Science】【Second Edition】

以下是书的目录: #### 第一部分:介绍 1. 计算机安全概述     - 1.1 基本组件     - 1.2 威胁     - 1.3 策略与机制     - 1.4 假设与信任     - 1.5 保证     - 1.6 操作问题     - 1.7 人为问题     - 1.8 综合概述     - 1.9 总结     - 1.10 研究问题     - 1.11 拓展阅读

[leetcode] 107. Binary Tree Level Order Traversal II

Binary Tree Level Order Traversal II 描述 Given a binary tree, return the bottom-up level order traversal of its nodes’ values. (ie, from left to right, level by level from leaf to root). For example

[leetcode] 102. Binary Tree Level Order Traversal

Binary Tree Level Order Traversal 描述 Given a binary tree, return the level order traversal of its nodes’ values. (ie, from left to right, level by level). For example: Given binary tree [3,9,20

论文《Tree Decomposed Graph Neural Network》笔记

【TDGNN】本文提出了一种树分解方法来解决不同层邻域之间的特征平滑问题,增加了网络层配置的灵活性。通过图扩散过程表征了多跳依赖性(multi-hop dependency),构建了TDGNN模型,该模型可以灵活地结合大感受场的信息,并利用多跳依赖性进行信息聚合。 本文发表在2021年CIKM会议上,作者学校:Vanderbilt University,引用量:59。 CIKM会议简介:全称C

U-Net for Image Segmentation

1.Unet for Image Segmentation 笔记来源:使用Pytorch搭建U-Net网络并基于DRIVE数据集训练(语义分割) 1.1 DoubleConv (Conv2d+BatchNorm2d+ReLU) import torchimport torch.nn as nnimport torch.nn.functional as F# nn.Sequential