基于硬区域加权损失的可分卷积神经网络的头颈CT高危器官自动分割

本文主要是介绍基于硬区域加权损失的可分卷积神经网络的头颈CT高危器官自动分割,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

基于硬区域加权损失的可分卷积神经网络的头颈CT高危器官自动分割

Automatic Segmentation of Organs-at-Risk from Head-and-Neck CT using Separable Convolutional Neural Network with Hard-Region-Weighted Loss


摘要

目的:从不确定的头颈部HAN CT图像中准确地分割危险器官(OAR)

难点:CT中软组织对比度低,OAR尺寸高度不平衡,较大的切片间距。大型和小型OAR的尺寸严重不平衡,容易使自动分割偏向较大的器官,如图一所示。

图一:三个正交视图中HAN CT图像的示例。OAR的大小不平衡,与周围组织的对比度较低。请注意,红色箭头突出显示了较大的切片间距,而小器官仅占据了很少的切片(例如),黄色箭头突出显示了视神经和晶状体。

解决方法:首先,我们提出了一种分段线性函数(SLF)来转换CT图像的强度;其次,我们介绍了一种新的2.5D网络(命名为3D-SepNet),专门设计用于处理各向异性间距的临床CT扫描。第三,我们提出了一种新的硬度感知损失函数,该函数关注硬体素以实现精确分割。

并且,医生不仅关心分割结果有多么精准,而且还关心预测结果的置信度。为此,还研究了一下预测中的不确定性及其与误分割的关系。

方法

分割架构如图二所示,由4个部分组成,首先,我们使用分段线性函数(SLF)来获得输入图像的多个强度转换副本,以获得不同OAR的更好对比度。其次,对于每一份强度转换后的图像,我们采用一种结合切片内和切片间卷积的3D-SepNet网络来处理大的切片间间距。第三,我们提出了一种新的硬体素加权策略,该策略更加关注小器官和大/容易器官中的硬体素,并可以与现有的损失函数相结合。最后,我们将几个用不同的SLF和损失函数训练过的模型进行加权融合得到最终的分割结果,同时得到分割的不确定性估计

图二

分段线性函数SLF

朴素线性函数NLF和分段线性函数SLF,原始HU值为h,变换之后强度为x,如图三所示

本文K取4,使用3种不同的SLF,其中[h1,h2,h3,h4]分别设[-500,-200,200,1500],[-500,-100,100,1500]和[-500,-100,400,1500]。并使用NLF1和NLF2进行了比较,分别设为[h1,h2]为[-100,100]以软组织为重点及[-500,800]设置为较大的窗口宽度。

SLF函数表达式

图三:NLF和SLF

图四显示了不同强度变换公式(SLF1、NLF1和NLF2)应用于HAN CT扫描的视觉比较结果。NLF1可以抑制骨骼,提高软组织的可见性,而NLF2可以提高骨骼的可见性,但软组织难以区分。SLF1对软组织和骨骼都有较高的可见性,这有利于对具有复杂强度分布的多个OAR进行分割。

图四:不同强度变换公式(SLF1、NLF1和NLF2)应用于HAN CT扫描的视觉比较结果

网络架构

提出了一个2.5D网络结合切片内卷积和切片间卷积来处理这个问题。如图五所示,提出的网络是基于3D U-Net的骨架。由于我们实验图像的切片间和切片内体素间距分别约为3 mm和1 mm,小器官只能穿过几片,使用标准的3D卷积会模糊其边界,并会影响精度。我们提出使用空间可分离卷积,将带有3 × 3 × 3核的标准3D卷积分离为带有1 × 3 × 3核的切片内卷积和带有3 × 1 × 1核的切片间卷积。考虑到切片间间隔较大,我们在每三次切片内卷积后再进行一次切片间卷积。在每个卷积层之后使用实例归一化(IN)和ReLU。为了更好的收敛,每个块都使用了1 × 1 × 1卷积层的跳跃连接。为了获得更好的性能,我们将编码路径中的特征映射与解码路径中的相应特征映射连接起来。最后一层1×1×1卷积与softmax函数提供分割概率。

图五:3D-SepNet网络架构

注意硬体素

p c ( x ) p_c(x) pc(x)是体素x类别为c的预测概率, g c ( x ) g_c(x) gc(x)是对应的金标准,α>0为超参数, w c ( x ) w_c(x) wc(x)为加权函数, p c w ( x ) p_c^w(x) pcw(x)为加权预测概率。图六显示了不同α值的加权函数 w c ( x ) w_c(x) wc(x) g c ( x ) g_c(x) gc(x)=1和 g c ( x ) g_c(x) gc(x)=0的影响。

g c ( x ) g_c(x) gc(x)=1时, p c w ( x ) p_c^w(x) pcw(x)低于 p c ( x ) p_c(x) pc(x);当 g c ( x ) g_c(x) gc(x)=0时, p c w ( x ) p_c^w(x) pcw(x)高于 p c ( x ) p_c(x) pc(x)。说明加权预测比原始预测离金标准更远,加权的较硬区域会对反向传播产生较大的影响,得到更多的改进空间,使网络更多地关注硬体素,将其称为注意硬体素ATH。在训练过程中,ATH和 L E X P L_{EXP} LEXP相结合,即使用 A T H − L E X P ATH-L_{EXP} ATHLEXP损失函数。 L E X P L_{EXP} LEXP为DSC损失和指数交叉熵的加权和。

图六:加权预测概率,加权后预测不准确并对反向传播产生较大的影响

模型集成和不确定性估计

使用三种ALF和两种α=0.5和α=1进行训练

c类预测概率图和对应测试图像的权值分别表示为 p c i p_c^i pci w c i w_c^i wci w c i w_c^i wci分别设为5,4,3,1,1,1。测试图像c类的最终概率图为:

假设Y(x)为体素x的预测标签,通过N个模型的预测,可以得到一组值 Y = y 1 ( x ) , y 1 ( x ) , . . . , y N ( x ) Y={y_1(x),y_1(x),...,y_N(x)} Y=y1(x),y1(x),...,yN(x),体素的不确定性可以近似为

实验和结果

  • 数据集

    StructSeg 2019挑战训练数据集,包括50名鼻咽癌患者的CT,40张图像进行训练,其余10张图像进行测试

强度变换与损失函数的比较

定量比较:使用3种强度变换函数和3种损失函数的3D-SepNet

定性比较:基于上述五种模型的分割结果的可视化比较。

网络对比

将3D Sep-Net与3D U-Net的三种变体进行比较:原始版本、添加SE块和添加残差连接。且我们的3D SepNet的参数约为3D UNet的1/3。结果如表二所示

表二:基于3D-SepNet和3D-UNet版本的定量比较
集成和不确定性估计结果

单一的强度变换函数和单一的损失函数很难实现所有OAR的最佳性能,不同的SLF和损失函数是相辅相成的。

我们的集成基于6个训练过的模型,包含三个SLF的组合,它们的损失函数为α=0.5和α=1的 A T H − L E X P ATH-L_{EXP} ATHLEXP

图9为6种模型及其集成用于OAR的分割的定量比较。结果表明,模型集合对所有OAR的平均DSC提高了1%。对小器官如晶状体、视交叉和垂体的平均DSC提高了5%左右。

模型1/2/3分别用ATH(α=0.5)-Lexp和SLF1/2/3进行训练,模型4/5/6分别用ATH(α=1)-Lexp和SLF1/2/3进行训练

RC1Oy-1613988469503)]

模型1/2/3分别用ATH(α=0.5)-Lexp和SLF1/2/3进行训练,模型4/5/6分别用ATH(α=1)-Lexp和SLF1/2/3进行训练

结果表明,预测OAR区域中存在的不确定区域更容易出现误分割,值得关注。

这篇关于基于硬区域加权损失的可分卷积神经网络的头颈CT高危器官自动分割的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/289870

相关文章

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

基于51单片机的自动转向修复系统的设计与实现

文章目录 前言资料获取设计介绍功能介绍设计清单具体实现截图参考文献设计获取 前言 💗博主介绍:✌全网粉丝10W+,CSDN特邀作者、博客专家、CSDN新星计划导师,一名热衷于单片机技术探索与分享的博主、专注于 精通51/STM32/MSP430/AVR等单片机设计 主要对象是咱们电子相关专业的大学生,希望您们都共创辉煌!✌💗 👇🏻 精彩专栏 推荐订阅👇🏻 单片机

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de

SigLIP——采用sigmoid损失的图文预训练方式

SigLIP——采用sigmoid损失的图文预训练方式 FesianXu 20240825 at Wechat Search Team 前言 CLIP中的infoNCE损失是一种对比性损失,在SigLIP这个工作中,作者提出采用非对比性的sigmoid损失,能够更高效地进行图文预训练,本文进行介绍。如有谬误请见谅并联系指出,本文遵守CC 4.0 BY-SA版权协议,转载请联系作者并注

SAM2POINT:以zero-shot且快速的方式将任何 3D 视频分割为视频

摘要 我们介绍 SAM2POINT,这是一种采用 Segment Anything Model 2 (SAM 2) 进行零样本和快速 3D 分割的初步探索。 SAM2POINT 将任何 3D 数据解释为一系列多向视频,并利用 SAM 2 进行 3D 空间分割,无需进一步训练或 2D-3D 投影。 我们的框架支持各种提示类型,包括 3D 点、框和掩模,并且可以泛化到不同的场景,例如 3D 对象、室

机器学习之监督学习(三)神经网络

机器学习之监督学习(三)神经网络基础 0. 文章传送1. 深度学习 Deep Learning深度学习的关键特点深度学习VS传统机器学习 2. 生物神经网络 Biological Neural Network3. 神经网络模型基本结构模块一:TensorFlow搭建神经网络 4. 反向传播梯度下降 Back Propagation Gradient Descent模块二:激活函数 activ

Shell脚本实现自动登录服务器

1.登录脚本 login_server.sh #!/bin/bash# ReferenceLink:https://yq.aliyun.com/articles/516347#show all host infos of serverList.txtif [[ -f ./serverList.txt ]]thenhostNum=`cat ./serverList.txt | wc -l`e

Jenkins 通过 Version Number Plugin 自动生成和管理构建的版本号

步骤 1:安装 Version Number Plugin 登录 Jenkins 的管理界面。进入 “Manage Jenkins” -> “Manage Plugins”。在 “Available” 选项卡中搜索 “Version Number Plugin”。选中并安装插件,完成后可能需要重启 Jenkins。 步骤 2:配置版本号生成 打开项目配置页面。在下方找到 “Build Env

以后写代码都是AI自动写了,Cursor+Claude-3.5-Sonnet,Karpathy 点赞的 AI 代码神器。如何使用详细教程

Cursor 情况简介 AI 大神 Andrej Karpathy 都被震惊了!他最近在试用 VS Code Cursor +Claude Sonnet 3.5,结果发现这玩意儿比 GitHub Copilot 还好用! Cursor 在短短时间内迅速成为程序员群体的顶流神器,其背后的原因在于其默认使用 OpenAI 投资的 Claude-3.5-Sonnet 模型,这一举动不仅改变了代码生成

YOLOv8/v10+DeepSORT多目标车辆跟踪(车辆检测/跟踪/车辆计数/测速/禁停区域/绘制进出线/绘制禁停区域/车道车辆统计)

01:YOLOv8 + DeepSort 车辆跟踪 该项目利用YOLOv8作为目标检测模型,DeepSort用于多目标跟踪。YOLOv8负责从视频帧中检测出车辆的位置,而DeepSort则负责关联这些检测结果,从而实现车辆的持续跟踪。这种组合使得系统能够在视频流中准确地识别并跟随特定车辆。 02:YOLOv8 + DeepSort 车辆跟踪 + 任意绘制进出线 在此基础上增加了用户