Attention U-Net: Learning Where to Look for the Pancreas论文笔记

2023-12-26 14:30

本文主要是介绍Attention U-Net: Learning Where to Look for the Pancreas论文笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

attention u-net论文翻译笔记

摘要

[外链图片转存失败,源站可能有防盗链机制,建议将图
我们提出了一种新颖的医学图像注意力们模型,它能自动学习聚焦在形状、尺寸变化的目标结构。用AG训练的模型隐形地抑制输入图像的非相关区域,同时强调对指定任务有用的显著性特征。这让我们不必去显式地使用级联CNN的组织定位模块。AG可以轻易的被集成到标准的CNN结构中,比如U-net模型,带有少量的计算开销同时能增加模型的敏感性和准确性。提出的Attention U-net结构在两个大CT腹部数据集中验证。实验结果表明AG一致性地在不同数据集和不同的训练数据量上提升了U-net的预测性能,同时保留了计算效率。开源代码。

介绍

在这里插入图片描述
AGs被广泛用于自然图像分析,知识图谱,对图像说明的自然语言处理,机器翻译,和分类任务。研究注意力图的起始工作是解释对于输入图像的输出分类得分的梯度。另一方面,可训练的注意力被设计和分类为软注意力和硬注意力。硬注意力,比如可迭代的区域建议和裁剪,通常是不可导的并依赖强化学习来更新参数,这让模型训练变的困难。[36]使用递归硬注意力来检测胸部X射线影片的异常。相反的,软注意力是概率地并利用标准反向传播,不需要蒙特卡洛采样。举一个例子,附加软注意力被用于句子到句子的翻译,并且最近较多的被应用于图像分类。在[10]中,通道级注意力被用于强调重要的特征维度,它是在ILSVRC2017图像分类挑战赛中第一名。自注意力技术已经被提出来避免对额外门信息的依赖。在[11,32]中,使用自注意力来指定分类的池化,它带来了更高地准确性以及鲁棒地图像分类性能。

贡献

在这里插入图片描述

  • 我们进一步采用了[11]提出的注意力方法,通过提出基于网格的门(决定注意力,理解为注意力图),它允许注意力系数更加具体地针对局部区域。相比于基于全局特征向量的门这样提升了性能。此外我们的方法可以用于密集预测,因为我们没有采用自适应池化。
  • 我们是首先在医学图像领域的前馈CNN模型中使用软注意力技术之一。这种提出的注意力们可以代替被使用于图像分类的硬注意力以及在图像分割框架中额外的组织定位模块。
  • 提出一个标准U-net的扩展版来提升模型的对前景像素敏感性 不需要复杂的启发式算法。在U-net上的准确性提升,在不同图像数据集上的一致性可以被实验地观察得到。

方法

在这里插入图片描述
x l x^l xl代表输入feature map, g g g代表gate signal, W g : 1 ∗ 1 ∗ 1 , W x : 1 ∗ 1 ∗ 1 W_{g}:1*1*1, W_{x}:1*1*1 Wg:111,Wx:111代表三维卷积核尺寸为 1 ∗ 1 ∗ 1 1*1*1 111的卷积。
我的理解是 输入feature map和gate signal经过 1 ∗ 1 ∗ 1 1*1*1 111的卷积核压缩,relu,再压缩,sigmoid增加非线性,得到与输入feature map相同大小的注意力系数,将注意力系数与输入feature map 相乘的到输出。

在这里插入图片描述
这是带有attention gate的u-net模型。与标准U-net相比,改进的地方在于skip-connection增加了attention gate, 而gating signal 是采用的较深层feature map。

这篇关于Attention U-Net: Learning Where to Look for the Pancreas论文笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/539773

相关文章

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

如何在Visual Studio中调试.NET源码

今天偶然在看别人代码时,发现在他的代码里使用了Any判断List<T>是否为空。 我一般的做法是先判断是否为null,再判断Count。 看了一下Count的源码如下: 1 [__DynamicallyInvokable]2 public int Count3 {4 [__DynamicallyInvokable]5 get

2、PF-Net点云补全

2、PF-Net 点云补全 PF-Net论文链接:PF-Net PF-Net (Point Fractal Network for 3D Point Cloud Completion)是一种专门为三维点云补全设计的深度学习模型。点云补全实际上和图片补全是一个逻辑,都是采用GAN模型的思想来进行补全,在图片补全中,将部分像素点删除并且标记,然后卷积特征提取预测、判别器判别,来训练模型,生成的像

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

什么是 Flash Attention

Flash Attention 是 由 Tri Dao 和 Dan Fu 等人在2022年的论文 FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness 中 提出的, 论文可以从 https://arxiv.org/abs/2205.14135 页面下载,点击 View PDF 就可以下载。 下面我

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2