Uncertainty-Aware Mean Teacher(UA-MT)

2024-02-26 18:36

本文主要是介绍Uncertainty-Aware Mean Teacher(UA-MT),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Uncertainty-Aware Mean Teacher

  • 0 FQA:
  • 1 UA-MT
    • 1.1 Introduction:
    • 1.2 semi-supervised segmentation
    • 1.3 Uncertainty-Aware Mean Teacher Framework
  • 参考:

0 FQA:

Q1: 不确定感知是什么意思?不确定信息是啥?
Q2:这篇文章的精妙的点在哪?
Q3:MC dropout可以用在分类上面吗?因为原文是用在分割上面的。
Q4:mc dropout是放在哪里? 放在教师上还是学生上?为什么?
Q5: 怎么保留低不确定性,和怎么利用高不确定性的呢
Q6: **不确定图是啥? 怎么生成的? **

A2: 概括来看,这篇文章就是改进了一下无标签的一致性损失函数。 这篇文章的精妙点在于,通过教师的mc dropout来估计每个目标预测的不确定性,在估计不确定性的指导下,计算一致性损失时过滤掉不可靠的预测,只保留可靠的预测。 让学生从教师的可靠的知识中学习,增加教师知识的可靠性。 其实就是多输出几次结果,然后取均值的感觉,然后避免网络的误差。
A3:理论上感觉是可以的,因为mc dropout 就相当于多推理几次,可能不同的点在于如何计算不确定性图。因为分割是体积,而分类是分类结果。
A4: 通过mc 让
教师更加确信自己教的知识
,学生也会学的更好。
A6: 其实也没有啥不确定性图,只不过是为了掩饰mc 之后出来的东西。其实就是多了一个计算熵值的步骤。有了这个map 看起来更加花里胡哨。

1 UA-MT

论文完整标题:Uncertainty-aware Self-ensembling Model for Semi-supervised 3D Left Atrium Segmentation

代码:https://github.com/yulequan/UA-MT

1.1 Introduction:

本文提出了一种新的基于不确定性的半监督学习框架(UA-MT),通过额外利用未标记的数据从3D MR图像中分割左心房。和Mean Teacher模型一样,该方法鼓励分割预测在相同输入的不同扰动下保持一致。
具体地说,本文建立了一个教师模型和一个学生模型,学生模型通过最小化标注数据上的分割监督损失和所有输入数据上的与教师模型预测输出的一致性损失进行优化。
但未标注的输入中没有提供ground truth,教师模型中的预测目标可能不可靠且有噪声。在这方面,我们设计了(UA-MT)框架,学生模型通过利用教师模型的不确定性信息,逐渐从有意义和可靠的目标中学习。除了生成目标输出,教师模型还通过Monte Carlo Dropout 估计每个目标预测的不确定性。在估计不确定性的指导下,计算一致性损失时过滤掉不可靠的预测,只保留可靠的预测(低不确定性)。因此,学生模型得到了优化,得到了更可靠的监督,并反过来鼓励教师模型生成更高质量的目标。

image.png

1.2 semi-supervised segmentation

半监督分割:EMA:
有监督损失,无监督一致性损失;

在这里插入图片描述

1.3 Uncertainty-Aware Mean Teacher Framework

如果没有未标记输入中的注释,教师模型的预测目标可能不可靠且有噪声。因此,我们设计了一种不确定性感知方案,使学生模型能够逐渐从更可靠的目标中学习。给定一批训练图像,教师模型不仅生成目标预测,还估计每个目标的不确定性。然后通过一致性损失来优化学生模型,该模型在估计不确定性的指导下仅关注置信目标

Uncertainty Estimation:受贝叶斯网络中不确定性估计的启发,我们使用蒙特卡罗 Dropout 来估计不确定性
在随机 dropout 下对教师模型执行 T 次随机前向传递,并为每个输入量输入高斯噪声。
因此,对于输入中的每个体素,我们获得一组softmax概率向量:{pt}_t *T。我们选择 预测熵 作为近似不确定性的度量,因为它有一个固定的范围[8]。
采用
预测熵
,作为度量方式来近似获取到不确定性:UAMT 算法过滤掉分割预测中不确定值较高的像素,仅保留可信的像素作为学生模型学习的目标

image.png
其中 ptc 是第 t 次预测中第 c 个类别的概率。请注意,不确定性是在体素水平上估计的,整个体积** U 的不确定性**是 {u} ∈ RH×W ×D。

Uncertainty-Aware Consistency Loss.:在估计不确定性 U 的指导下,我们过滤掉相对不可靠**(高不确定性)的预测,并仅选择某些预测作为学生模型学习的目标。特别是,对于我们的半监督分割任务,我们将不确定性感知一致性损失 Lc 设计为教师和学生模型的体素级均方误差(MSE)损失**,仅用于最确定的预测:

过滤掉高不确定性的,也就是熵大于某个值的。熵值越大,不确定性越高。

在这里插入图片描述

式中,I(·)为指示函数; f ′ v 和 fv 分别是教师模型和学生模型在第 v 个体素处的预测; uv 是第 v 个体素处的估计不确定性 U; H是选择最确定目标的阈值。
通过我们在训练过程中的不确定性感知一致性损失,学生和教师都可以学到更可靠的知识,从而减少模型的整体不确定性。

参考:

这篇关于Uncertainty-Aware Mean Teacher(UA-MT)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/749765

相关文章

【python 爬虫】伪造UA字符串

写好爬虫的原则只有一条: 就是让你的抓取行为和用户访问网站的真实行为尽量一致。 1、伪造UA字符串,每次请求都使用随机生成的UA。 为了减少复杂度,随机生成UA的功能通过第三方库fake-useragent实现 pip install fake-useragent 2、生成一个UA字符串只需要如下代码: 核心代码: from fake_useragent import UserAge

Spring源码学习--Aware相关接口(beanNameAware接口/BeanFactoryAware接口/ApplicationContextAware接口)

可以先这样理解在Spring中以Aware结尾的接口的功能 看到Spring源码中接口以Aware结尾的接口(XXXAware)在Spring中表示对XXX可以感知,通俗点解释就是:如果在某个类里面想要使用spring的一些东西,就可以通过实现XXXAware接口告诉Spring,Spring看到后就会给你送过来,而接收的方式是通过实现接口唯一方法set-XXX.比如:有一个类想要使用当前

ORA-24067: exceeded maximum number of subscribers for queue ADMIN.SMS_MT_QUEUE

临时处理办法: delete from aq$_ss_MT_tab_D;delete from aq$_ss_MT_tab_g;delete from aq$_ss_MT_tab_h;delete from aq$_ss_MT_tab_i;delete from aq$_ss_MT_tab_p;delete from aq$_ss_MT_tab_s;delete from aq$

Detection简记2-DAFE-FD: Density Aware Feature Enrichment for Face Detection

创新点 1.使用密度估计模型增强检测中的特征图 总结 整个流程还是很清晰的。 conv1-3的特征图经过密度估计模块由检测器D1进行检测。 D2-4分别是四个检测器。 FFM是特征融合模块,将不同层不同大小的特征融合。 FFM网络结构如下: 首先使用1X1的卷积减少两组特征的厚度到128,然后使用双线性插值统一两组特征图的尺寸,然后相加。类似于cvpr2017的SSH。 多尺度检测器的网

S7-1500 配置OPC UA客户端

一、OPC UA 概述 OPC UA是一项开放标准,适用于从机器到机器间(M2M)的水平通信和从机器直到云端的垂直通信。该标准独立于供应商和平台,支持广泛的安全机制,并且可以与 PROFINET 共享同一工业以太网络。 1.OPC UA通信的特性及优势 特性: 独立于供应商和平台 集成的安全概念(加密、签名和验证) 一致、端到端,并可扩展 信息模型和语义服务 与PROFINET 不受限制的并

mean shift图像分割(一)

mean shift均值偏移算法,可以用于图像分割(类聚)或者视频跟踪。在图像分割上是寻找一副图像的特征空间中的概率密度极值点,以极值点为类聚来平滑分隔。概率密度主要用非参数概率密度估计方法,其中核密度估计较为常用。密度极值点的寻找用密度梯度方法进行迭代寻找。 meanshift可分割需要建立在图像特征空间可分的基础上,也就是需要找到一个合适的特征空间,图像映射到这个空间上后,目标和背景可以

SEC-UA的调用总结

通过学习SECUA算法的调用,我学到了很多,首先介绍一下步骤,然后再介绍一下学习感悟。   SECUA算法是贝叶斯平均的一种实现算法。实现步骤: (1)编写自定义函数,即目标函数。 (2)可以直接调用SCEIN和SCEUA子程序,但在SCEUA程序中,需要优化参数的值。 (3)最后编写主程序,实现参数的调用。     感悟: 1.拿到程序后

NumPy(五):数组统计【平均值:mean()、最大值:max()、最小值:min()、标准差:std()、方差:var()、中位数:median()】【axis=0:按列运算;axis=0:按列】

统计运算 np.max()np.min()np.median()np.mean()np.std()np.var()np.argmax(axis=) — 最大元素对应的下标np.argmin(axis=) — 最小元素对应的下标 NumPy提供了一个N维数组类型ndarray,它描述了 相同类型 的“items”的集合。(NumPy provides an N-dimensional array

Pandas-高级处理(四):分组与聚合【分组:groupby、聚合统计:max/min/mean...、分组转换:transform、一般化Groupby方法:apply】【抛开聚合只谈分组没意义】

df.groupby(by=None, axis=0, level=None, as_index=True, sort=True, group_keys=True, squeeze=False, **kwargs) 分组统计 - groupby功能 ① 根据某些条件将数据拆分成组 ② 对每个组独立应用函数 ③ 将结果合并到一个数据结构中 应用groupby和聚合函数实现数据的分组与聚合

Structure-Aware Feature Fusion for Unsupervised Domain Adaptation

Structure-Aware Feature Fusion for Unsupervised Domain Adaptation 摘要引言相关工作UDA中的分布匹配方法 Model 摘要 无监督域适应(Unsupervised Domain Adaptation,UDA)旨在从有标注的源域中学习并迁移通用特征到无任何标注的目标域。现有的方法仅对高层次的表示进行对齐,却没有利