Contour-Hugging Heatmaps for Landmark Detection阅读笔记

2023-11-06 13:20

本文主要是介绍Contour-Hugging Heatmaps for Landmark Detection阅读笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

代码:https://github.com/jfm15/ContourHuggingHeatmaps

我自己稍微改了一点的https://github.com/Nightmare4214/ContourHuggingHeatmaps

摘要

希望输出landmark的位置和每个landmark的不确定度(Uncertainty)

作者主要贡献:

  • 作者通过分类的方式来训练模型
  • 通过temperature scaling来校准模型的不确定度
  • 利用Expected Radial Error(ERE)来获取不确定度

背景

一般的模型回归的是服从高斯分布的heatmap
但是不是所有地方都可能出现landmark,比如说一个landmark,他可能出现在骨头上,不会出现在旁边的软组织上,此时概率不应该是一个圆形的分布,而应该是集中在骨头上的

为了能够预测这种不规则形状,作者采用的是分类的方法,而不是回归高斯heatmap
在这里插入图片描述

方法

模型

编码器用的在imagenet预训练的resnet34,解码器是Unet的解码器,最后接了一个 1 × 1 1\times 1 1×1的卷积调整通道输出每个landmark的概率图
其中第一层卷积通过sum,将原本3通道的,改成了1通道

监督信号是one-hot的heatmap(每个landmark有1个对应的heatmap,每个heatmap只有landmark那个位置是1,其他都是0)
模型经过2d softmax,然后用交叉熵计算损失,相当于是做分类/分割问题

temperature sacling

σ l ( i , j ) = e c l ( i , j ) T l ∑ s = 1 w ∑ t = 1 h e c l ( s , t ) T l \sigma_l(i, j)=\frac{e^{\frac{c_l(i, j)}{T_l}}}{\sum_{s=1}^w \sum_{t=1}^h e^{\frac{c_l(s, t)}{T_l}}} σl(i,j)=s=1wt=1heTlcl(s,t)eTlcl(i,j)
简单来说就是除以一个T之后用softmax

temperature scaling不改变模型的精度(因为softmax是单调函数),但是可以改变方差

如下图,可以看到T越小差距越大,T越大差距越小
在这里插入图片描述

#!/usr/bin/env python
# _*_ coding:utf-8 _*_
import matplotlib.pyplot as plt
import numpy as npdef softmax(x, T):x = np.exp(x / T)return x / x.sum()if __name__ == '__main__':x = np.arange(4)origin = np.array([0.1, 0.4, 0.3, 0.2])temperatures = [1, 5, 50, 0.5, 0.05]total_width, n = 0.8, len(temperatures)width = total_width / nx = x - (total_width - width) / 2for i, temperature in enumerate(temperatures):plt.bar(x + i * width, softmax(origin, temperature), width=width, label=f'T={temperature}')plt.legend()plt.show()

不确定度

Expected Radial Error (ERE)
E R E σ l = ∑ i = 1 w ∑ j = 1 h σ l ( i , j ) ( i − x ~ ) 2 + ( j − y ~ ) 2 E R E_{\sigma_l}=\sum_{i=1}^w \sum_{j=1}^h \sigma_l(i, j) \sqrt{(i-\tilde{x})^2+(j-\tilde{y})^2} EREσl=i=1wj=1hσl(i,j)(ix~)2+(jy~)2
其中 ( x ~ , y ~ ) \left(\tilde{x}, \tilde{y}\right) (x~,y~)是预测landmark坐标
σ l ( i , j ) \sigma_l(i, j) σl(i,j)是heatmap,但是需要预处理一下
去除了小于最大值 5 % 5\% 5%得点,然后通过除以总和进行归一化

下面作者通过实验,表明ERE和径向误差(预测landmark到真实landmark的距离)是有关系的

验证

Reliability Diagrams

下面说的landmark的置信度指的是对应的heatmap的最大值

设置信度的最大值为 M M M(这里最大值指的是所有图片所有landmark的置信度)
根据 M M M分成10个桶(bin),每个桶长度为 M 10 \frac{M}{10} 10M
将所有图片所有landmark划分到对应的桶

每个桶的平均置信度就是landmark的平均置信度

一个landmark如果和真实的landmark完全重合,则称为预测正确
每个桶的正确率就是预测正确的比例
(其实想完全重合基本不可能,所以代码里是 < = p i x e l _ s i z e 2 π = ( 1935 640 × 0.1 ) 2 π <=\sqrt{\frac{pixel\_size^2}{\pi}}=\sqrt{\frac{(\frac{1935}{640}\times 0.1)^2}{\pi}} <=πpixel_size2 =π(6401935×0.1)2

Expected Calibration Error (ECE)就是每个桶正确率和平均置信度的差值的绝对值的期望
E C E = E [ ∣ a c c − c o n f i d e n c e ∣ ] ECE = \mathbb{E}\left[\left|acc-confidence\right|\right] ECE=E[accconfidence]
如果一个模型预测的完美校准(perfectly calibrated),那么正确率和平均置信度一样(这句话我也没理解)

通过temerature scaling,作者把ECE从2.03降到了0.70
在这里插入图片描述

ERE

作者想表明ERE和径向误差是相关的

针对所有图的所有landmark,按照ERE排序,每36个代表图上的一个点,然后算皮尔逊

能看得出来这里几乎正相关
在这里插入图片描述

通过ERE来区分预测的准确性

通过ERE设定一个阈值来判断一个landmark是否不准确/错误(inaccurate / ‘erroneous’)
1.在测试集1使用模型得到heatmap
2.找到每张heatmap的最大值,作为预测的landmark,然后计算ERE
3.计算径向误差,<2mm就是good, >2mm就是erroneous
4.画ROC曲线,其中真阳性(true positive)就是ERE>阈值 且 真实径向误差>2mm,
假阳性(false positive)就是ERE>阈值 且 真实误差<2mm

最后选定真阳性率(true positive rate)为0.5的阈值作为设定的阈值
论文里是1.414,也就是说,如果ERE>1.414,就认为这是erroneous
在这里插入图片描述
在测试集2上利用这个阈值来判断一个landmark的准确性
最后确实good的landmark更加准确
在这里插入图片描述

这篇关于Contour-Hugging Heatmaps for Landmark Detection阅读笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/356884

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi

取得 Git 仓库 —— Git 学习笔记 04

取得 Git 仓库 —— Git 学习笔记 04 我认为, Git 的学习分为两大块:一是工作区、索引、本地版本库之间的交互;二是本地版本库和远程版本库之间的交互。第一块是基础,第二块是难点。 下面,我们就围绕着第一部分内容来学习,先不考虑远程仓库,只考虑本地仓库。 怎样取得项目的 Git 仓库? 有两种取得 Git 项目仓库的方法。第一种是在本地创建一个新的仓库,第二种是把其他地方的某个