ESTAN:用于乳腺超声图像分割的增强型小肿瘤感知网络

本文主要是介绍ESTAN:用于乳腺超声图像分割的增强型小肿瘤感知网络,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

ESTAN:用于乳腺超声图像分割的增强型小肿瘤感知网络

  • 摘要
  • 引言

ESTAN Enhanced Small Tumor-Aware Network for Breast Ultrasound Image Segmentation

摘要

乳腺肿瘤分割是用于乳腺癌检测的计算机辅助诊断(CAD)系统中的关键任务,因为准确的肿瘤大小、形状和位置对于进一步的肿瘤量化和分类是重要的。然而,由于斑点噪声、患者之间不同的肿瘤形状和大小以及肿瘤样图像区域的存在,分割超声图像中的小肿瘤具有挑战性。最近,基于深度学习的方法在生物医学图像分析方面取得了巨大成功,但目前最先进的方法在分割小乳腺肿瘤方面表现不佳。在本文中,我们提出了一种新的深度神经网络架构,即增强型小肿瘤感知网络(ESTAN),以准确和鲁棒地分割乳腺肿瘤。增强的小肿瘤感知网络引入了两个编码器来提取和融合不同尺度的图像上下文信息,并利用行列内核来适应乳房解剖结构。我们比较了ESTAN和九种最先进的方法,在三个公共乳腺超声数据集上使用七个定量指标,即,BUSIS、数据集B和BUSI。实验结果表明,该方法在小肿瘤分割方面取得了最好的整体性能,优于其他所有方法。具体地,ESTAN在三个数据集上的Dice相似系数(DSC)分别为0.92、0.82和0.78;并且ESTAN在三个小肿瘤数据集上的DSC分别为0.89、0.80和0.81。

引言

乳腺超声(BUS)成像是一种有效的筛查方法,由于其无痛,非侵入性,非放射性和成本效益的性质。乳腺超声图像分割的目的是从图像中的正常乳腺组织中提取肿瘤区域。这是BUS计算机辅助诊断(CAD)系统中的一个重要步骤。然而,由于斑点噪声,图像质量差,以及可变的肿瘤形状和大小,准确的BUS图像分割是具有挑战性的。
根据美国国家癌症研究所的数据,在美国,如果乳腺癌在早期阶段被发现和治疗,相对生存率为99%,如果癌症已经扩散到身体的其他器官,则只有27%[1]。乳腺肿瘤的早期发现是降低死亡率的关键。然而,在早期阶段,大多数肿瘤都很小,在BUS图像中占据相对较小的区域。将它们与正常乳腺组织区分开来具有挑战性。因此,准确检测小肿瘤对于早期乳腺癌检测至关重要,可以改善临床决策,治疗计划和恢复。
BUS图像分割的方法可以分为传统方法和基于深度学习的方法。许多传统方法已用于BUS图像分割,例如阈值[15-21],区域生长[22,23]和分水岭[24,25]。尽管它们简单,但这些方法需要在提取特征方面的知识和专业知识,并且由于可扩展性差和对噪声的高敏感性,它们不鲁棒。关于BUS图像分割的全面回顾,请参阅[26]。
最近,已经开发了几种用于BUS图像分割的深度学习方法[2-14];表1列出了用于BUS图像分割的最新深度学习方法。Huang等人。[2]提出了一种模糊全卷积网络来执行BUS图像分割。采用模糊逻辑来解决BUS图像和特征图中的不确定性问题。对比度增强和小波特征作为预处理技术,以增加训练数据。通过模糊隶属度函数将增强的训练图像集和卷积层特征转换到模糊域中。背景信息和人体乳房结构被集成到条件随机场(CRF),以增强分割结果。雅普等人[3]评估了三种不同的深度学习方法的性能:基于补丁的LeNet,U-Net以及在两个BUS数据集(数据集A和数据集B)上使用预训练的AlexNet的迁移学习。迁移学习AlexNet在数据集A上的真阳性和F-measure指标方面优于所有其他指标,而基于补丁的LeNet在数据集B上的每图像假阳性指标方面取得了最佳结果。虽然结果表明,为其他任务设计的不同深度学习方法可以在BUS数据集上采用和训练,但所有方法都无法在两个数据集上实现所有评估指标的最佳结果。Amiri等人[4]研究了迁移学习和微调U-Net架构配置的重要性,以解决超声图像数据稀缺的问题。针对小型BUS数据集微调U-Net的浅层获得了最佳结果;然而,针对大型BUS数据集微调整个网络或浅层没有显著差异。请参阅[26,27]了解更多用于医学图像分割的深度学习方法。
下面展示一些 内联代码片

这个论文看一下
[2]提出了一种模糊全卷积网络来执行BUS图像分割。采用模糊逻辑来解决BUS图像和特征图中的不确定性问题
Huang,K.; Zhang, Y;Cheng,H.D.;Xing,P; Zhang,B.Fuzzy Semantic Segmentation of Breast Ultrasound Image with BreastAnatomy Constraints. arXio 2019, arXiv:1909.06645.
[7]提出了一种DFCN方法,该方法将扩张的全卷积网络与基于相位的活动轮廓(PBAC)模型相结合,以自动分割乳腺肿瘤。具有PBAC网络的DFCN对噪声和模糊边界具有更强的鲁棒性,并且成功地分割了具有大量阴影的肿瘤
Hu, Y.; Guo, Y.; Wang, Y.; Yu, J.; Li, J.; Zhou, S.; Chang, C. Automatic tumor segmentation in breast ultrasound images using a
dilated fully convolutional network combined with an active contour model. Med. Phys. 2018, 46, 215228. [CrossRef]
[9]提出了一种基于熵参数映射和注意力门控U-Net网络的BUS图像深度学习分割方法。该模型取得了很好的改善,但有不足的结果和分析,以显示熵图的意义

此外,Nair等人[5]提出了一种具有两个解码器的DNN,用于从原始单平面波通道数据创建BUS图像和分割掩码。这种方法显示出有希望的结果,其中分割掩模和B模式图像都是使用原始数据在单个网络中生成的。Zhuang等人[6]提出了一种基于U-Net架构的RDAU-Net模型,用于在BUS图像上执行肿瘤分割任务。在U-Net中,分别用膨胀的剩余块和注意门来代替基本块和原始的跳跃连接。RDAU-Net设计提高了模型的整体灵敏度和准确性。类似地,Hu等人[7]提出了一种DFCN方法,该方法将扩张的全卷积网络与基于相位的活动轮廓(PBAC)模型相结合,以自动分割乳腺肿瘤。具有PBAC网络的DFCN对噪声和模糊边界具有更强的鲁棒性,并且成功地分割了具有大量阴影的肿瘤。
此外,Vakanski等人。[8]将放射科医生的视觉注意力与U-Net模型相结合,以执行BUS分割。该模型设计了注意力块,以忽略显著性低的区域,并强调更多显著性高的区域。这项研究优于U-Net模型,并成功地将先验知识信息结合到卷积神经网络中。Byra等人。[9]提出了一种基于熵参数映射和注意力门控U-Net网络的BUS图像深度学习分割方法。该模型取得了很好的改善,但有不足的结果和分析,以显示熵图的意义。此外,Moon等人。[10]提出了一种用于CAD系统的集成CNN架构,包括在原始BUS图像,分割图像肿瘤,肿瘤掩模和融合图像上训练的多模型。通过结合原始图像、分割的肿瘤和肿瘤形状信息(TSI)来制备融合图像。结果表明,融合图像取得了最好的结果,在所有其他的,该研究提供了一个明确的指导,选择一个特定的数据集大小的方法。Lee等人。[11]提出了一种具有多尺度网格平均池的通道注意力模块,用于分割BUS图像。该方法利用了局部和全局信息,并取得了良好的整体分割性能。Chen等人[12]提出了双向关注和细化网络,他们将其添加到U形网络之上,以准确分割乳腺病变。然而,在小数据集上训练这样的网络使得处理过拟合/欠拟合问题变得具有挑战性。这些方法取得了良好的整体性能。然而,如图1所示,它们未能在分割小肿瘤方面实现良好的性能。首先,这些方法旨在使用为学习自然图像中的特征而开发的通用平方核来提高整体性能。其次,目前所有可用的BUS数据集都很小,大多数基于深度学习的方法都需要大量高质量的训练集。
这项工作的灵感来自于当前小目标检测和/或分割的进展,这是计算机视觉中的一项重要任务,因为它构成了许多图像相关任务的基础,例如遥感,场景理解,对象跟踪,实例和全景分割,航空航天检测和图像字幕。Chen等人。[28]提出了一种用于R-CNN算法的增强技术,具有上下文模型和小区域建议生成器,这是小对象检测的第一个基准数据集。Krishna等人。[29]设计了一个更快的R-CNN模型,采用了修改后的上采样技术,以提高小对象检测的性能。Guan等人。[30]提出了一种语义上下文感知网络(SCAN),它集成了位置融合模块和上下文融合模块来检测语义和上下文特征。Dong [31]提出了DenseU-Net架构,用于城市遥感图像中小对象的语义分割。它使用残差连接和具有中值频率平衡的加权焦点损失函数来提高小目标检测的性能。据我们所知,STAN [14]是第一个专门为小肿瘤分割设计的深度学习架构。采用三个跳跃连接和两个编码器从收缩部分的不同层提取多尺度上下文信息。小肿瘤感知网络在分割BUS图像中的小肿瘤方面优于其他深度学习方法。然而,它对小肿瘤的平均假阳性率(FPR)远大于对大肿瘤的FPR。

这篇关于ESTAN:用于乳腺超声图像分割的增强型小肿瘤感知网络的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/866907

相关文章

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

Linux 网络编程 --- 应用层

一、自定义协议和序列化反序列化 代码: 序列化反序列化实现网络版本计算器 二、HTTP协议 1、谈两个简单的预备知识 https://www.baidu.com/ --- 域名 --- 域名解析 --- IP地址 http的端口号为80端口,https的端口号为443 url为统一资源定位符。CSDNhttps://mp.csdn.net/mp_blog/creation/editor

ASIO网络调试助手之一:简介

多年前,写过几篇《Boost.Asio C++网络编程》的学习文章,一直没机会实践。最近项目中用到了Asio,于是抽空写了个网络调试助手。 开发环境: Win10 Qt5.12.6 + Asio(standalone) + spdlog 支持协议: UDP + TCP Client + TCP Server 独立的Asio(http://www.think-async.com)只包含了头文件,不依

poj 3181 网络流,建图。

题意: 农夫约翰为他的牛准备了F种食物和D种饮料。 每头牛都有各自喜欢的食物和饮料,而每种食物和饮料都只能分配给一头牛。 问最多能有多少头牛可以同时得到喜欢的食物和饮料。 解析: 由于要同时得到喜欢的食物和饮料,所以网络流建图的时候要把牛拆点了。 如下建图: s -> 食物 -> 牛1 -> 牛2 -> 饮料 -> t 所以分配一下点: s  =  0, 牛1= 1~

poj 3068 有流量限制的最小费用网络流

题意: m条有向边连接了n个仓库,每条边都有一定费用。 将两种危险品从0运到n-1,除了起点和终点外,危险品不能放在一起,也不能走相同的路径。 求最小的费用是多少。 解析: 抽象出一个源点s一个汇点t,源点与0相连,费用为0,容量为2。 汇点与n - 1相连,费用为0,容量为2。 每条边之间也相连,费用为每条边的费用,容量为1。 建图完毕之后,求一条流量为2的最小费用流就行了

poj 2112 网络流+二分

题意: k台挤奶机,c头牛,每台挤奶机可以挤m头牛。 现在给出每只牛到挤奶机的距离矩阵,求最小化牛的最大路程。 解析: 最大值最小化,最小值最大化,用二分来做。 先求出两点之间的最短距离。 然后二分匹配牛到挤奶机的最大路程,匹配中的判断是在这个最大路程下,是否牛的数量达到c只。 如何求牛的数量呢,用网络流来做。 从源点到牛引一条容量为1的边,然后挤奶机到汇点引一条容量为m的边

配置InfiniBand (IB) 和 RDMA over Converged Ethernet (RoCE) 网络

配置InfiniBand (IB) 和 RDMA over Converged Ethernet (RoCE) 网络 服务器端配置 在服务器端,你需要确保安装了必要的驱动程序和软件包,并且正确配置了网络接口。 安装 OFED 首先,安装 Open Fabrics Enterprise Distribution (OFED),它包含了 InfiniBand 所需的驱动程序和库。 sudo

【机器学习】高斯网络的基本概念和应用领域

引言 高斯网络(Gaussian Network)通常指的是一个概率图模型,其中所有的随机变量(或节点)都遵循高斯分布 文章目录 引言一、高斯网络(Gaussian Network)1.1 高斯过程(Gaussian Process)1.2 高斯混合模型(Gaussian Mixture Model)1.3 应用1.4 总结 二、高斯网络的应用2.1 机器学习2.2 统计学2.3

网络学习-eNSP配置NAT

NAT实现内网和外网互通 #给路由器接口设置IP地址模拟实验环境<Huawei>system-viewEnter system view, return user view with Ctrl+Z.[Huawei]undo info-center enableInfo: Information center is disabled.[Huawei]interface gigabit

SAM2POINT:以zero-shot且快速的方式将任何 3D 视频分割为视频

摘要 我们介绍 SAM2POINT,这是一种采用 Segment Anything Model 2 (SAM 2) 进行零样本和快速 3D 分割的初步探索。 SAM2POINT 将任何 3D 数据解释为一系列多向视频,并利用 SAM 2 进行 3D 空间分割,无需进一步训练或 2D-3D 投影。 我们的框架支持各种提示类型,包括 3D 点、框和掩模,并且可以泛化到不同的场景,例如 3D 对象、室