SETR 阅读笔记

2024-03-09 20:50
文章标签 笔记 阅读 setr

本文主要是介绍SETR 阅读笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

  • 前言
  • 1. 模型的特点
  • 2. 模型结构
    • 2.1 Encoder
    • 2.2 Decoder
  • 3. 思考与分析
  • 4. 下一步计划
  • 参考

前言

SETR是一篇CVPR2021的语义分割论文,论文将于语义分割视为Seq2Seq的预测任务,提出了一种解决语义分割问题的新思路。

1. 模型的特点

现有的语义分割模型大多都是基于FCN的Encoder-Decoder结构:Encoder用于学习图像特征,Decoder则基于Encoder学到的特征对图片中的每一个像素进行分类。其中,Encoder通常以卷积分类网络作为Backbone,将输入图片不断下采样以增加感受野,学习更加抽象的图像特征。但是,通过不断堆叠卷积层来增加感受野无法有效地学习图像信息中的远距离依赖关系。而这一点对于提升语义分割的效果十分重要。

为了解决这个问题,SETR完全舍弃卷积操作,Encoder将输入图像看作图像patch序列,通过全局注意力建模学习图像特征;Decoder利用从Transformer Encoder中学到的特征,将图像恢复到原始大小,完成分割任务。整个过程没有使用卷积操作,没有对图片进行下采样,而是在Encoder Transformer的每一层进行全局上下文建模,从而为语义分割问题的解决提供了新思路。

SETR的主要贡献如下:

  1. 区别于Encoder-Decoder结构,将语义分割问题重新定义为Seq2Seq问题
  2. Encoder完全使用Transformer框架,通过序列化的图像实现全局注意力特征提取
  3. 设计了三种不同复杂度的解码器。

2. 模型结构

SETR整体模型结构如下:
在这里插入图片描述

2.1 Encoder

Encoder的功能是将输入图像 x ∈ R C × H × W x \in \mathbb R^{C \times H \times W} xRC×H×W转化为序列 Z ∈ R L × C Z \in \mathbb R^{L \times C} ZRL×C。(img2seq)

输入图像等分为16个Patch,每一个Patch大小都是 H 16 × W 16 \frac{H}{16} \times \frac{W}{16} 16H×16W,可以拉伸为长度 L = H × W 256 L = \frac{H \times W}{256} L=256H×W的序列。将这16份Patch平展成一个序列,通过线性变换 f : p → e ∈ R C f: p \rightarrow e \in \mathbb R^{C} f:peRC,将每一个Patch映射到 C C C维向量空间中,转化为序列 x f ∈ R L × C x_f \in \mathbb R^{L \times C} xfRL×C。然后为每一个 e i e_i ei向量添加对应的位置编码 p i p_i pi,得到最终的输入序列 E = { e 1 + p 1 , e 2 + p 2 , … , e L + p L } E = \lbrace e_1 + p_1, e_2 +p_2, \ldots, e_L + p_L \rbrace E={e1+p1,e2+p2,,eL+pL}

将embeding序列 E E E输入到Transformer Encoder当中,Transformer Encoder由 L e L_e Le个Transformer层组成。其中第 l l l层的输入是 Z l − 1 ∈ R L × C Z^{l -1} \in \mathbb R^{L \times C} Zl1RL×C的向量,自注意力的输入是由 Z l − 1 Z^{l -1} Zl1计算得到的三维元组 ( q u e r y , k e y , v a l u e ) (query, key, value) (query,key,value)

q u e r y = Z l − 1 W Q , k e y = Z l − 1 W K , v a l u e = Z l − 1 W V query = Z^{l - 1}W_Q, key = Z^{l - 1}W_K, value = Z^{l - 1}W_V query=Zl1WQ,key=Zl1WK,value=Zl1WV

其中, W Q W_Q WQ W K W_K WK W V W_V WV是可学习权重矩阵,且 W Q / W K / W V ∈ R C × d W_Q/W_K/W_V \in \mathbb R^{C \times d} WQ/WK/WVRC×d d d d ( q u e r y , k e y , v a l u e ) (query, key, value) (query,key,value)的维度。

则自注意力可以表示为:

S A = Z l − 1 + s o f t m a x ( Q K T d ) V SA = Z^{l -1} + softmax(\frac{QK^T}{\sqrt {d}})V SA=Zl1+softmax(d QKT)V

多层自注意力即是由m个SA拼接起来得到, M S A ( Z l − 1 ) = [ S A 1 ( Z l − 1 ) ; S A 2 ( Z l − 1 ) ; ⋯ ; S A m ( Z l − 1 ) ] W O MSA(Z^{l - 1}) = [SA_1(Z^{l - 1}); SA_2(Z^{l - 1}); \cdots; SA_m(Z^{l - 1})]W_O MSA(Zl1)=[SA1(Zl1);SA2(Zl1);;SAm(Zl1)]WO,其中 W O ∈ R m d × C W_O \in \mathbb R^{md \times C} WORmd×C,最后 M S A MSA MSA的输出通过一个带有残差连接的全连接层得到Encoder的输出:
Z l = M S A ( Z l − 1 ) + M L P ( M S A ( Z l − 1 ) ) ∈ R L × C Z^l = MSA(Z^{l-1}) + MLP(MSA(Z^{l-1})) \in \mathbb R^{L \times C} Zl=MSA(Zl1)+MLP(MSA(Zl1))RL×C

进而有Transformer Encoder各层的输出 { Z 1 , Z 2 , … , Z L e } \lbrace Z^{1},Z^{2},\ldots,Z^{L_e} \rbrace {Z1,Z2,,ZLe}

2.2 Decoder

Decoder的目标是在原始的二维图像 ( H × W ) (H \times W) (H×W)上生成分割结果,需要将Encoder的输出 Z Z Z从二维 H W 256 × C \frac{HW}{256} \times C 256HW×Creshape为三维特征图 H 16 × W 16 × C \frac{H}{16} \times \frac{W}{16} \times C 16H×16W×C

设计了三种解码器:

(1)朴素上采样
使用一个简单的2层网络: 1 × 1 1 \times 1 1×1conv + batch norm + 1 × 1 1 \times 1 1×1conv,将将Transformer输出的 Z L e Z^{L_e} ZLe投影到类别个数的维度上(如Cityscapes中有19个类别),然后直接用双线性插值进行上采样得到原分辨率大小的输出。最后接一个逐像素计算交叉熵损失的分类层,得到每个像素的预测类别。

(2)渐进上采样(PUP)
直接一步上采样会引入很大的噪声,可以使用交替执行卷积和上采样的方法,将上采样倍数设置成2倍,减轻噪声。从 H 16 × W 16 \frac{H}{16} \times \frac{W}{16} 16H×16W Z L e Z^{L_e} ZLe得到原始图片大小,共需执行4次上采样操作。
在这里插入图片描述
(3)多层特征融合(MLA)
与特征金字塔相似的多级特征融合,但不同的是特征 Z L Z^L ZL来自各层Transformer并具有相同的分辨率。每隔 L e M \frac{L_e}{M} MLe层提取一层特征 { Z m } ( m ∈ { L e M , 2 L e M , … , M L e M ) \lbrace Z^m \rbrace (m \in \lbrace \frac{L_e}{M},2\frac{L_e}{M},\ldots,M\frac{L_e}{M}) {Zm}(m{MLe,2MLe,,MMLe),总共提取了 M M M条路径的特征。其中,每一层都是先将 Z L e Z^{L_e} ZLe H W 256 × C \frac{HW}{256} \times C 256HW×Creshape到 H 16 × W 16 × C \frac{H}{16} \times \frac{W}{16} \times C 16H×16W×C,然后使用一个三层神经网络进行处理(卷积核大小 1 × 1 1 \times 1 1×1 3 × 3 3 \times 3 3×3 3 × 3 3 \times 3 3×3),在第一层和第三层分别将通道数减半,然后在第三层之后进行4倍双线性插值上采样。并且从第2条路径开始,依次融合前面路径的特征,增强每条路径间的信息交互,再次经过一个 3 × 3 3 \times 3 3×3的卷积层后,将每条路径得到的特征图进行通道维度的拼接,并采用4倍双线性插值进行上采样,恢复出原图尺寸。
在这里插入图片描述

3. 思考与分析

SETR完全采用ViT-large作为encoder有以下几个缺点:

(1) ViT-large 参数和计算量非常大,有300M+参数,这对于移动端模型是无法承受的;
(2) ViT的结构不太适合做语义分割,因为ViT是柱状结构,全程只能输出固定分辨率的feature map, 比如1/16, 这么低的分辨率对于语义分割不太友好,尤其是对轮廓等细节要求比较精细的场景。
(3) ViT的柱状结构意味着一旦增大输入图片或者缩小patch大小,计算量都会成平方级提高,对显存的负担非常大。
(4) 位置编码,ViT 用的是固定分辨率的positional embedding, 但是语义分割在测试的时候往往图片的分辨率不是固定的,这时要么对positional embedding做双线性插值,这会损害性能;要么做固定分辨率的滑动窗口测试,这样效率很低而且很不灵活。

4. 下一步计划

  • 阅读源码进一步理解SETR模型结构
  • 学习并整理U-Net
  • 阅读论文熟悉Segformer模型结构

参考

Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with Transformers

这篇关于SETR 阅读笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/791914

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi

取得 Git 仓库 —— Git 学习笔记 04

取得 Git 仓库 —— Git 学习笔记 04 我认为, Git 的学习分为两大块:一是工作区、索引、本地版本库之间的交互;二是本地版本库和远程版本库之间的交互。第一块是基础,第二块是难点。 下面,我们就围绕着第一部分内容来学习,先不考虑远程仓库,只考虑本地仓库。 怎样取得项目的 Git 仓库? 有两种取得 Git 项目仓库的方法。第一种是在本地创建一个新的仓库,第二种是把其他地方的某个