【论文阅读】clDice - a Novel Topology-Preserving Loss Function for Tubular Structure Segmentation

本文主要是介绍【论文阅读】clDice - a Novel Topology-Preserving Loss Function for Tubular Structure Segmentation,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

【论文阅读】clDice - a Novel Topology-Preserving Loss Function for Tubular Structure Segmentation

2022年2月18日
(本文仅作为本人学习中的记录,如有错误欢迎批评指正。)

文章目录

  • 【论文阅读】clDice - a Novel Topology-Preserving Loss Function for Tubular Structure Segmentation
  • 一、概述
  • 二、任务背景
  • 三、方法介绍
      • 1、整体框架
      • 2、clDice计算过程
      • 3、soft-clDice和模型训练
  • 四、实验结果
  • 五、总结


一、概述

先上论文链接:clDice - a Novel Topology-Preserving Loss Function for Tubular Structure Segmentation.

对文章结构做一个整体的梳理:

  • Purpose:提高管状结构分割结果的拓扑连通性。
  • Methods:提出了clDice作为拓扑相似性测度,并提出soft-clDice作为损失函数,其原理为计算分割结果与骨架的相交占比。为了将soft-clDice用以模型训练,使用soft skeleton的方法得到软骨架,再计算clDice,这样就可以实现Loss函数的可微。
  • Results:实验在视网膜数据集、道路数据集、神经元数据集等数据集上进行了验证,soft-clDice具有良好的效果。
  • Conclusion:提出的soft-clDice对于血管、道路、组织等连续管状结构的分割具有良好的效果,提高了分割结果的拓扑连通性。

二、任务背景

管状和曲线结构的分割是许多领域的一个基本问题,例如临床和生物应用(从显微镜、光声或放射学图像分割血管和神经元)、遥感应用(从卫星图像分割道路网络)和工业质量控制等等。在上述领域中,拓扑上精确的分割是保证下游任务无差错的必要条件,如计算血流动力学、路线规划、阿尔茨海默病预测或中风建模。

为了评估管状结构中的分割效果,传统的基于体积的性能指标(如Dice)是次优的。在像网络拓扑提取这样的任务中,保证拓扑结构的完整性具有更大的价值。

Introduction

为此,作者提出了两个问题:1、在保证网络拓扑结构保持不变的情况下,对于管状结构和曲线结构的分割算法,什么是一个很好的像素衡量标准? 2、是否能用这个标准作为神经网络的损失函数?

三、方法介绍

1、整体框架

作者提出的方法如下图所示:
(1)首先对原图使用分割网络得到粗略分割概率图;
(2)再分别对实际结果(Actual Mask)和预测结果(Predicted Mask)提取软骨架;
(3)最后根据Soft-clDice的计算公式计算soft-clDice,与soft-Dice结合得到损失函数,进行模型训练。
clDice计算概述

2、clDice计算过程

其中clDice的计算过程如下:

V L V_L VL为真实结果, V P V_P VP为预测结果, S L S_L SL为从真实结果中提取的骨架, S P S_P SP为从预测结果中提取的骨架。那么可以定义拓扑准确性为 T p r e c ( S P , V L ) Tprec(S_P, V_L) Tprec(SP,VL),拓扑敏感度为 T s e n s ( S L , V P ) Tsens(S_L, V_P) Tsens(SL,VP),其计算方式为:
在这里插入图片描述

当FP增多时, T p r e c Tprec Tprec对应下降;当FN增多时, T s e n s Tsens Tsens对应下降。由此可见, T p r e c Tprec Tprec对应了拓扑学上的Precision,而 T s e n s Tsens Tsens则对应了拓扑学上的Sensitivity。

最后定义 c l D i c e clDice clDice T p r e c Tprec Tprec T s e n s Tsens Tsens的F1-score:
在这里插入图片描述

3、soft-clDice和模型训练

为了将clDice用以模型训练的Loss函数,文章提出了soft-clDice和soft-skeletonize。

文章使用最小和最大过滤器用作形态膨胀和侵蚀的灰度替代,提出了“软骨架化”(soft-skeletonize)。soft-skeletonize中涉及的迭代过程如下图所示。计算中涉及的超参数k表示迭代次数,并且必须大于或等于观察到的最大半径。
在这里插入图片描述

soft-skeletonize算法和soft-clDice的计算过程如下图所示,总体来说先腐蚀(minpool)再膨胀(maxpool),再用原骨架减去该结果,如此不断迭代k次得到软化骨架,然后再根据公式计算soft-clDice。
在这里插入图片描述
最后将soft-Dice和soft-clDice的加权和作为Loss函数:
在这里插入图片描述

四、实验结果

文章分别使用5个公共数据集来验证clDice和soft-clDice作为度量和目标函数的效果。在2D中,使用了DRIVE视网膜数据集、马萨诸塞州道路数据集和CREMI神经元数据集进行评估。在3D中,使用具有附加高斯噪声项的合成血管数据集和脑血管多通道容积扫描的Vessap数据集进行了评估。实验的可视化结果如下图所示:
在这里插入图片描述

五、总结

文章介绍了一种用于管状结构分割的拓扑保持相似性度量clDice,并在损失函数中使用clDice的可微版本soft-clDice来训练2D和3D神经网络。文章使用clDice以及其他基于体积、拓扑和图形的度量来测试分割质量,实验发现在soft-clDice上进行训练可以获得更精确的连通性信息、更好的图相似性、更好的Euler特征以及更好的Dice和准确性。除此之外,clDice可以应用到其他基于深度学习的分割任务中,如生物医学成像中的神经元分割、工业质量控制中的裂纹检测或遥感分割等任务。

这篇关于【论文阅读】clDice - a Novel Topology-Preserving Loss Function for Tubular Structure Segmentation的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/572215

相关文章

Java function函数式接口的使用方法与实例

《Javafunction函数式接口的使用方法与实例》:本文主要介绍Javafunction函数式接口的使用方法与实例,函数式接口如一支未完成的诗篇,用Lambda表达式作韵脚,将代码的机械美感... 目录引言-当代码遇见诗性一、函数式接口的生物学解构1.1 函数式接口的基因密码1.2 六大核心接口的形态学

C++11的函数包装器std::function使用示例

《C++11的函数包装器std::function使用示例》C++11引入的std::function是最常用的函数包装器,它可以存储任何可调用对象并提供统一的调用接口,以下是关于函数包装器的详细讲解... 目录一、std::function 的基本用法1. 基本语法二、如何使用 std::function

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin