性能再升级!UNet+注意力机制,新SOTA分割准确率高达99%

2024-04-16 04:44

本文主要是介绍性能再升级!UNet+注意力机制,新SOTA分割准确率高达99%,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

UNet结合注意力机制能够有效提升图像分割任务的性能。

具体来说,通过将注意力模块集成到UNet的架构中,动态地重新分配网络的焦点,让其更集中在图像中对于分割任务关键的部分。这样UNet可以更有效地利用其跳跃连接特性,以精细的局部化信息来提升分割精度。

这种策略可以帮助UNet更精确地界定目标边界,提升分割精度和效率。同时引导网络关注更有信息量的局部区域,减少模型对计算资源的需求

以CAS-UNet算法为例: CAS-UNet是一种基于注意机制的视网膜血管分割算法,它通过引入跨融合通道注意机制、加性注意门模块和SoftPool池化模块,改进了传统的U-Net算法,提高了模型的分割能力和对细节图像区域的分割效果。

在CHASEDB1和DRIVE数据集上的实验结果表明,CAS-UNet分别达到了96.68%和95.86%的准确率,以及83.21%和83.75%的灵敏度,优于现有的基于U-Net的经典算法。

本文挑选了12个UNet结合注意力机制最新成果,可借鉴的方法和创新点做了简单提炼,原文以及相应代码都整理了,方便同学们学习和复现。

论文和开源代码需要的同学看文末

High-Resolution Model for Segmenting and Predicting Brain Tumor Based on Deep UNet with Multi Attention Mechanism

方法:论文提出了一种利用增强注意机制的UNet框架分割脑肿瘤的新技术。通过在记录全面的上下文信息的同时,通过选择性地强调重要方面的注意过程,该策略克服了脑肿瘤分割的挑战。在总体准确率方面表现出色,达到了99%的准确率。

创新点:

  • 建立了一种基于UNet和多重注意机制的深度学习模型,用于精确分割和预测脑肿瘤。该模型通过在UNet架构中整合注意机制来强化特征提取和上下文理解,从而克服了传统分割技术的局限性。

  • 通过引入空间注意和通道注意机制,提高了模型对肿瘤和非肿瘤区域的区分能力,并加强了对多尺度层次的上下文理解。

  • 利用离散余弦变换(DCT)从医学图像中提取特征,降低了计算复杂度和内存需求。这有助于减少UNet模型的输入数组维度。

DA-TransUNet: Integrating Spatial and Channel Dual Attention with Transformer U-Net for Medical Image Segmentation

方法:论文提出一种新的深度医学图像分割框架DA-TransUNet,旨在将Transformer和双注意力块(DA-Block)与传统的U-shaped架构相结合,以改善医学图像分割的性能。通过在嵌入层和每个跳跃连接层中引入DA-Block,提高特征提取能力和编码器-解码器结构的效率,从而改善医学图像分割的性能。

创新点:

  • DA-TransUNet:将双重注意机制集成到Transformer U-net框架中,将位置和通道信息处理与编码器-解码器结构相结合,提高了医学图像分割任务的性能。

  • 双重注意块(DA-Block):在编码器的Transformer层之前和跳跃连接中引入了DA-Block,增强了特征提取能力,改善了图像分割性能。

SCTV-UNet: a COVID-19 CT segmentation network based on attention mechanism

方法:论文提出了一种新的COVID-19分割网络SCTV-UNet,结合了编码器上的注意力机制。同时,还提出了一种新的复合损失函数DTVLoss,可以解决传统U型网络预测图像边界模糊和病变区域与背景之间对比度弱的问题。

创新点:

  • 提出了一种新的COVID-19分割网络SCTV-UNet,结合了编码器上的注意机制。通过引入SC注意力到编码器中,可以捕获更多的语义信息,突出病变区域的特征,并抑制其他区域。因此,SCTV-UNet比TV-UNet有更好的分割效果和分割准确性。

  • 提出了一种新的复合损失函数DTVLoss。它可以解决传统U型网络预测图像边界模糊和病变区域与背景之间对比度弱的问题。通过将DTVLoss替换TVLoss,可以解决TV-UNet预测图像中边界模糊和病变区域与背景之间对比度弱的问题。

Road Extraction From Satellite Images Using Attention-Assisted UNet

方法:作者采用了UNet模型,并在解码器部分辅助使用了注意力机制,同时使用了经过补丁、旋转和增强的数据集进行训练。预处理步骤包括图像和掩模的补丁化、旋转、排除仅包含背景的图像以及排除道路面积很小的图像。

为了解决数据集固有的偏差问题,预处理中采用了补丁化和背景排除技术,模型中采用了注意力机制。通过这些技术的组合,提出的模型在遥感图像分割方面取得了98.33%的准确率。

创新点:

  • 使用UNet和注意力机制在模型中,通过数据准备、背景排除和旋转等预处理步骤,克服了数据集偏差问题并实现了更好的性能。

  • 在结果分析步骤中,重点关注精确度和召回率,以更好地评估性能并找出应考虑的缺点。

关注下方《学姐带你玩AI》🚀🚀🚀

回复“UNet结合”获取全部论文+代码

码字不易,欢迎大家点赞评论收藏

这篇关于性能再升级!UNet+注意力机制,新SOTA分割准确率高达99%的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/907814

相关文章

Vue3 的 shallowRef 和 shallowReactive:优化性能

大家对 Vue3 的 ref 和 reactive 都很熟悉,那么对 shallowRef 和 shallowReactive 是否了解呢? 在编程和数据结构中,“shallow”(浅层)通常指对数据结构的最外层进行操作,而不递归地处理其内部或嵌套的数据。这种处理方式关注的是数据结构的第一层属性或元素,而忽略更深层次的嵌套内容。 1. 浅层与深层的对比 1.1 浅层(Shallow) 定义

JVM 的类初始化机制

前言 当你在 Java 程序中new对象时,有没有考虑过 JVM 是如何把静态的字节码(byte code)转化为运行时对象的呢,这个问题看似简单,但清楚的同学相信也不会太多,这篇文章首先介绍 JVM 类初始化的机制,然后给出几个易出错的实例来分析,帮助大家更好理解这个知识点。 JVM 将字节码转化为运行时对象分为三个阶段,分别是:loading 、Linking、initialization

性能测试介绍

性能测试是一种测试方法,旨在评估系统、应用程序或组件在现实场景中的性能表现和可靠性。它通常用于衡量系统在不同负载条件下的响应时间、吞吐量、资源利用率、稳定性和可扩展性等关键指标。 为什么要进行性能测试 通过性能测试,可以确定系统是否能够满足预期的性能要求,找出性能瓶颈和潜在的问题,并进行优化和调整。 发现性能瓶颈:性能测试可以帮助发现系统的性能瓶颈,即系统在高负载或高并发情况下可能出现的问题

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

黑神话,XSKY 星飞全闪单卷性能突破310万

当下,云计算仍然是企业主要的基础架构,随着关键业务的逐步虚拟化和云化,对于块存储的性能要求也日益提高。企业对于低延迟、高稳定性的存储解决方案的需求日益迫切。为了满足这些日益增长的 IO 密集型应用场景,众多云服务提供商正在不断推陈出新,推出具有更低时延和更高 IOPS 性能的云硬盘产品。 8 月 22 日 2024 DTCC 大会上(第十五届中国数据库技术大会),XSKY星辰天合正式公布了基于星

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

【编程底层思考】垃圾收集机制,GC算法,垃圾收集器类型概述

Java的垃圾收集(Garbage Collection,GC)机制是Java语言的一大特色,它负责自动管理内存的回收,释放不再使用的对象所占用的内存。以下是对Java垃圾收集机制的详细介绍: 一、垃圾收集机制概述: 对象存活判断:垃圾收集器定期检查堆内存中的对象,判断哪些对象是“垃圾”,即不再被任何引用链直接或间接引用的对象。内存回收:将判断为垃圾的对象占用的内存进行回收,以便重新使用。

【Tools】大模型中的自注意力机制

摇来摇去摇碎点点的金黄 伸手牵来一片梦的霞光 南方的小巷推开多情的门窗 年轻和我们歌唱 摇来摇去摇着温柔的阳光 轻轻托起一件梦的衣裳 古老的都市每天都改变模样                      🎵 方芳《摇太阳》 自注意力机制(Self-Attention)是一种在Transformer等大模型中经常使用的注意力机制。该机制通过对输入序列中的每个元素计算与其他元素之间的相似性,

如何通俗理解注意力机制?

1、注意力机制(Attention Mechanism)是机器学习和深度学习中一种模拟人类注意力的方法,用于提高模型在处理大量信息时的效率和效果。通俗地理解,它就像是在一堆信息中找到最重要的部分,把注意力集中在这些关键点上,从而更好地完成任务。以下是几个简单的比喻来帮助理解注意力机制: 2、寻找重点:想象一下,你在阅读一篇文章的时候,有些段落特别重要,你会特别注意这些段落,反复阅读,而对其他部分

从状态管理到性能优化:全面解析 Android Compose

文章目录 引言一、Android Compose基本概念1.1 什么是Android Compose?1.2 Compose的优势1.3 如何在项目中使用Compose 二、Compose中的状态管理2.1 状态管理的重要性2.2 Compose中的状态和数据流2.3 使用State和MutableState处理状态2.4 通过ViewModel进行状态管理 三、Compose中的列表和滚动