Patch-Based 3D Unet for Head and Neck Tumor Segmentation with an Ensemble of Conventional and Dilate

本文主要是介绍Patch-Based 3D Unet for Head and Neck Tumor Segmentation with an Ensemble of Conventional and Dilate,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Patch-Based 3D Unet for Head and Neck Tumor Segmentation with an Ensemble of Conventional and Dilated Convolutions
总结: 普通的3D Unet通过超参数(patch size、loss、convolution)的调整,创建了五个模型(也就是使用不同超参数的五个3D Unet),将总体训练数据集划分为训练集(121个病例)和验证集(80个病例),五个模型在训练集和验证集上进行训练,选择出效果最好的两个模型。这两个模型在整个训练数据集(201个病例)上训练,并用于最终的集成建模。(什么是集成建模?我自己理解的是,用这两个模型对测试数据集进行预测——采用滑动窗口法,然后将两个模型的预测概率求平均,对平均后的预测概率使用阈值处理得到最后的分割标签)。

Abstract

肿瘤消除问题的自动分割与医学图像中ROI区域的人工注释有关,例如重要的人工努力以及观察者内部的可变性。精确的头颈癌肿瘤分割对于癌症(尤其是口咽癌)的放射治疗计划有巨大的潜能,并且也可以提高病人护理。近期,深度学习模型的发展已经十分有效,并且在一些语义分割和医学图像分割中能精确地完成分割任务。在这篇文章中,我们提出了一个基于patch的深度学习模型来处理3D图像网络训练过程中的内存问题。 并且,使用了传统卷积和扩张卷积的组合来充分利用两种方法的优点:传统卷积的小感受野能够捕捉到更好的细节,而扩张卷积的大感受野能够捕捉到更好的全局信息。使用带有传统卷积和扩张卷积的基于patch的3D Unet能够产生不错的结果,最终的dice分数为0.6911。

Introduction

口咽癌是一种在口咽组织中形成恶性细胞或癌症细胞的疾病。口咽部由舌根、软腭、扁桃体、喉部侧壁和后壁组成,是头颈癌最常见的部位之一。从医学图像中准确地分割出头颈部肿瘤,可以在确定肿瘤确切位置的基础上,更好地制定放射治疗计划,优化患者护理。近年来,深度学习模型的发展已经能够有效和准确地执行医学图像分割任务,同时消除了与人工标注感兴趣区域(ROI)相关的问题,例如大量的人力和观察者之间的可变性。
为了比较和评估不同的自动分割算法,利用FDG-PET和头颈部原发肿瘤的CT扫描,组织了医学图像计算和计算机辅助干预(MICCAI)2020挑战赛。更具体地说,本次挑战中使用的数据集包括多机构临床获取的双峰扫描(FDG-PET和CT),重点是口咽癌。针对三维图像姿势记忆问题训练深度学习模型的问题,本研究采用基于patch的方法。此外,还对常规卷积网络和扩张卷积网络进行了集成。传统卷积较小的接受野可以捕捉到细微的细节,而扩张卷积的较大接受野可以捕捉到更好的全局信息,而集成方法则可以同时利用这两种方法。同样,与单个模型相比,集成建模技术也降低了泛化误差,有助于提高预测性能。

Methods

对于头颈癌肿瘤任务的自动分割,我们提出的方法的步骤为图像预处理,提取patch,训练多个模型(模型使用带有不同超参数的普通的3D UNet架构),充分利用每个模型进行预测,最终的模型评估和图像后处理。具体的细节在下面的不同部分进行描述。

Image Pre-processing

PET能够评估人体组织中细胞的新陈代谢活动,CT图像关注组织的形态特征。融合PET和CT两种模态的信息是图像预处理的主要任务之一。CT扫描用HU表示,因为我们的数据集中的CT扫描包括头颈区域,所以采用—1024HU到1024HU的窗口。每一个3D CT图像通过除以窗口范围值(2048?)来归一化到0-1。因为数据集提供了bounding box,每一个3D CT图像都使用病人信息中提供的bounding boxes坐标进行裁剪。为了进行裁剪,bounding boxes 坐标首先需要转换到他们对应的索引值。类似的,每一个3D PET图像也使用bounding boxes进行裁剪并且使用线性插值方法将图像大小重采样到对应的3D CT图像大小。然后,对于每一个subject,3D CT和3D PET在最后一个维度进行融合来使得输入图像有两个通道。因为PET图像没有标准的像素强度值,为了减少不同物体的影响,每一个3D图像都通过减去它们整体的平均值再除以整体像素强度值的标准差来进行归一化。

Patch Extraction

在3D Unet模型架构中,使用大输入尺寸或者整张图像会带来几个挑战。这些挑战中包含内存问题,训练时间长以及类别不平衡问题。因为中等的GPU内存大约是11GB或者12GB,所以网络需要大幅减少特征图或者层的数量来才能使模型适合GPU。有时,减少特征图或者层的数量会导致网络性能的下降。同样,训练时间也会大幅增加,因为有更多的体素参与每个步骤的梯度计算,并且在优化期间步数不可能成比例地减少。由于图像中含有肿瘤的部分通常占整个图像的比例相对较小,因此会出现类别不平衡的问题。因此,如果训练使用固定的损失函数,类别不平衡会导致模型关注非肿瘤体素,或者如果训练使用更偏向肿瘤体素的加权损失容易导致假阳性。因此,为了更有效地利用训练数据,基于patch的分割方法也会提供一个更自然的方式来进行数据增强,因为我们可以以不同的方式提取patch。在训练过程中patch size也是一个可以调整的超参数。然而更大的patch size可以从医学图像中提取更多的全局信息,但它也有内存问题和更长的训练时间。为了实现,在每一个epoch中以固定的概率从每一个subject中随机地提取patch。数据增强是在patch提取后进行随机左右翻转。使用随机左右翻转是因为头部和颈部区域沿左右方向在解剖学上是对称的。

Network Structure and Training

采用具有3个编码块和3个解码块的3D U-net网络结构,如图1所示。对于每个编码块,使用具有两个连续的3D卷积层的类VGG网络,核大小为3。紧随其后的是RELU激活函数。最后,使用batch normalization。在第一个编码块中使用了大量的特征图,以提高网络的表现力。为了防止过拟合,在最后一个编码块之后添加了0.5的dropout。损失函数采用加权交叉熵和Dice损失,其中值1.0用于非肿瘤体素,值2.0用于肿瘤体素。与传统的U-net结构类似,在每个编码块中,空间维度减少了一半,而特征数量增加了一倍。对于解码块,对称块与来自相应编码块的跳跃连接一起使用。将特征连接到反卷积输出,并将输入patch的分割图扩展到二分类(肿瘤和非肿瘤/背景)的ground truth 标签。
图1超参数调整用于模型选择,使用可调整的参数创建多个模型,可调整的模型参数有1)patch size 2)loss type 3)卷积的类型。在超参数调整过程中采用交叉验证,其中60%的训练数据用作训练集,其余40%用作验证集。虽然较大的patch可以显著增加训练时间,但也有可能显著提高模型的性能。同样,使用扩张卷积可以使网络具有更大的接受范围,并可能导致提取更好的全局信息。表1示出了用于训练五个不同模型的参数,其中N表示输入大小,Loss Type表示使用的损失函数,Convolution表示网络中使用的是常规卷积还是扩张卷积。在模型选择过程中,基于训练集和验证集,用Dice得分和loss值来评价各模型的性能。最终选择了两个性能最好的模型进行集成建模:采用常规卷积的模型(模型4)和采用扩张卷积的模型(模型5)。
表1
训练时间(包括训练两个用于部署的最终模型)约为每个模型11小时,训练在内存为11 GB的NVIDIA GeForce GTX 1080 Ti GPU上执行。使用TensorFlow框架创建和训练模型。每个模型使用600个epochs进行训练。Adam优化器以0.0005的恒定学习率使用。类似地,batch size为1并且layers为3。第一层使用的输入特征图数量为48个。在每个epoch的训练过程中,为每个受试者提取一个随机patch,其中受试者的顺序被随机排列(不太懂什么意思?)。最后,在测试过程中执行instance normalization,其中每个特征地图都使用其平均值和标准差进行归一化。

Prediction Using Each Model

正如前面部分所讨论的,使用较大的输入大小或整个图像会在训练期间带来内存问题的挑战,因此实现了基于patch的训练方法。在部署过程中也面临着同样的挑战,整个映像无法装入GPU内存。为了解决这个问题,使用滑动窗口的方法来获得每个测试对象的输出。然而,滑动窗口方法在没有重叠的情况下在整个图像上滑动窗口时会产生预测不稳定的问题。当重叠时,与没有重叠的相比,预测时间增加了8倍,因为它必须在体素的每个维度上重叠。在部署时,步长为4,并对输出概率进行平均(在部署时也就是在测试集上预测时?)对于每个窗口,都预测了原始图像和左右翻转的图像,并将翻转输入的输出再翻转后的平均概率用作输出。由于在使用每个模型进行预测之后执行集成建模,因此将每个模型的原始概率输出保存到磁盘,而不是将在对概率输出进行阈值处理之后产生的最终标签保存到磁盘。

Ensemble Modeling

与单个模型相比,集成方法往往具有更好的预测性能。因此,基于两个不同模型的预测,执行集成建模过程以产生最终的标签或二进制掩模。对所选的两个模型的原始概率图进行平均。通过将平均概率大于0.5的体素分类为肿瘤来获得最终预测。由于存在两个类别,0代表非肿瘤,1代表肿瘤,最终的分割产生了用于肿瘤分割的二值掩模。

Image Post-processing

最终提交前的最后一步是图像后处理。在后处理过程中,每个最终分割标签(二进制mask)在使用边界框坐标裁剪后,基于原始CT 3D图像,使用正确的像素间距和原点重新采样。像素间距和原点是用于重采样的主要组件,因为在图像预处理步骤中已经使用边界框对图像进行了裁剪。执行后处理是因为挑战中对提交的要求,其中输出需要使用原始的CT分辨率,并使用各自的边界框进行裁剪。

Results

最终模型的训练采用201例或受试者的全部训练数据集。在初步训练期间,训练数据集被分成121个训练对象和80个验证对象。训练数据由来自四个不同中心的医学图像(CT和FDG-PET扫描)组成。对于模型的选择,进行了超参数调整,并使用Dice得分和损失得分来评估不同模型的性能。基于表1中描述的5个模型,表2显示了在模型选择过程中使用的结果(训练Dice得分、训练损失和验证Dice得分)。
选择性能最好的两个模型,并在整个训练数据集上对其进行训练,并将其用于最终的集成建模。表2
根据它们的模型性能,选择模型4和模型5进行集成建模,集成后验证分割的Dice得分为0.7268。最后,对来自不同中心的53名受试者的测试数据进行分割。提交后,MICCAI 2020(HECKTOR)挑战赛组织者计算了测试集的平均Dice相似系数(DSC)、准确率和召回率,Dice为0.6911,查准率为0.7525,召回率为0.6928。

Discussion and Conclusions

本文提出了一种基于3D Unet集成的头颈部肿瘤自动分割方法。虽然分割算法是为头颈部肿瘤开发的,但有可能将知识转移到其他类型的肿瘤/癌症和其他类似的研究中。在预处理过程中融合FDG-PET和CT模式的信息,以实现准确的分割。在模型选择过程中,以不同的patch大小、损失类型和卷积类型作为超参数对5个模型进行训练。初步结果表明,patch大小越大,验证Dice得分越高,64x64x64的验证Dice得分为0.4588,64x96x96的验证Dice得分为0.7229。当Dice损失与交叉熵损失相加时,验证Dice得分从0.6647增加到0.7229,也显示出改善。同样,在交叉验证期间,与两个单独模型的性能相比,集成建模的性能更好。此外,在测试过程中,滑动窗口重叠的步长越大,交叉验证时的性能就越好。因此,在部署期间,在测试集中使用stride=4进行预测。
在模型选择过程中,由于计算时间的限制,只有5个模型进行了超参数调整训练。通过进一步的超参数调整,可以提高性能。选择性能最好的两个模型,在整个训练数据集上进行训练,并用于最终的集成建模(前面的五个模型在划分出的训练数据集和验证数据集上进行训练,训练后选择效果最好的两个模型,在整个训练数据集(201例病人)上进行训练,并用于最终的集成建模)。对两种方式(FDG-PET和CT)进行晚期融合的实验也可以表明,与早期融合相比,是否会对性能和/或训练时间产生显著影响。类似地,具有更多模型的集成建模也可以进一步提高性能。总之,我们开发了一种基于patch的3D UNET,用于头颈部肿瘤的分割,包括常规卷积和扩张卷积,以及两种模式(FDG-PET和CT)的早期融合。

这篇关于Patch-Based 3D Unet for Head and Neck Tumor Segmentation with an Ensemble of Conventional and Dilate的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/617846

相关文章

无人叉车3d激光slam多房间建图定位异常处理方案-墙体画线地图切分方案

墙体画线地图切分方案 针对问题:墙体两侧特征混淆误匹配,导致建图和定位偏差,表现为过门跳变、外月台走歪等 ·解决思路:预期的根治方案IGICP需要较长时间完成上线,先使用切分地图的工程化方案,即墙体两侧切分为不同地图,在某一侧只使用该侧地图进行定位 方案思路 切分原理:切分地图基于关键帧位置,而非点云。 理论基础:光照是直线的,一帧点云必定只能照射到墙的一侧,无法同时照到两侧实践考虑:关

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

SAM2POINT:以zero-shot且快速的方式将任何 3D 视频分割为视频

摘要 我们介绍 SAM2POINT,这是一种采用 Segment Anything Model 2 (SAM 2) 进行零样本和快速 3D 分割的初步探索。 SAM2POINT 将任何 3D 数据解释为一系列多向视频,并利用 SAM 2 进行 3D 空间分割,无需进一步训练或 2D-3D 投影。 我们的框架支持各种提示类型,包括 3D 点、框和掩模,并且可以泛化到不同的场景,例如 3D 对象、室

跟我一起玩《linux内核设计的艺术》第1章(四)——from setup.s to head.s,这回一定让main滚出来!(已解封)

看到书上1.3的大标题,以为马上就要见着main了,其实啊,还早着呢,光看setup.s和head.s的代码量就知道,跟bootsect.s没有可比性,真多……这确实需要包括我在内的大家多一些耐心,相信见着main后,大家的信心和干劲会上一个台阶,加油! 既然上篇已经玩转gdb,接下来的讲解肯定是边调试边分析书上的内容,纯理论讲解其实我并不在行。 setup.s: 目标:争取把setup.

模具要不要建设3D打印中心

随着3D打印技术的日益成熟与广泛应用,模具企业迎来了自建3D打印中心的热潮。这一举措不仅为企业带来了前所未有的发展机遇,同时也伴随着一系列需要克服的挑战,如何看待企业引进增材制造,小编为您全面分析。 机遇篇: 加速产品创新:3D打印技术如同一把钥匙,为模具企业解锁了快速迭代产品设计的可能。企业能够迅速将创意转化为实体模型,缩短产品从设计到市场的周期,抢占市场先机。 强化定制化服务:面

ElasticSearch 6.1.1 通过Head插件,新建索引,添加文档,及其查询数据

ElasticSearch 6.1.1 通过Head插件,新建索引,添加文档,及其查询; 一、首先启动相关服务: 二、新建一个film索引: 三、建立映射: 1、通过Head插件: POST http://192.168.1.111:9200/film/_mapping/dongzuo/ {"properties": {"title": {"type":

Windows环境下ElasticSearch6.1.1版本安装Head插件

安装Head插件步骤如下: 1、下载node.js ,网址:https://nodejs.org/en/ 安装node到D盘。如D:\nodejs。 把NODE_HOME设置到环境变量里(安装包也可以自动加入PATH环境变量)。测试一下node是否生效: 2、安装grunt grunt是一个很方便的构建工具,可以进行打包压缩、测试、执行等等的工作,5.0里的head插件就是通过grunt

WPF入门到跪下 第十三章 3D绘图 - 3D绘图基础

3D绘图基础 四大要点 WPF中的3D绘图涉及4个要点: 视口,用来驻留3D内容3D对象照亮部分或整个3D场景的光源摄像机,提供在3D场景中进行观察的视点 一、视口 要展示3D内容,首先需要一个容器来装载3D内容。在WPF中,这个容器就是Viewport3D(3D视口),它继承自FrameworkElement,因此可以像其他元素那样在XAML中使用。 Viewport3D与其他元素相

MACS bdgdiff: Differential peak detection based on paired four bedGraph files.

参考原文地址:[http://manpages.ubuntu.com/manpages/xenial/man1/macs2_bdgdiff.1.html](http://manpages.ubuntu.com/manpages/xenial/man1/macs2_bdgdiff.1.html) 文章目录 一、MACS bdgdiff 简介DESCRIPTION 二、用法