Overall Accuracy(OA)、Average Accuracy(AAcc)计算公式

2024-05-28 04:36

本文主要是介绍Overall Accuracy(OA)、Average Accuracy(AAcc)计算公式,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

四个重要的指标:
True Positive(TP)、False Positive(FP)、True Negative(TN)和False Negative(FN)。
TP表示分类器预测结果为正样本,实际也为正样本,即正样本被正确识别的数量;
FP表示分类器预测结果为正样本,实际为负样本,即误报的负样本数量;
TN表示分类器预测结果为负样本,实际也为负样本,即负样本被正确识别的数量;
FN表示分类器预测结果为负样本,实际为正样本,即漏报的正样本数量。

以二分类为例:1.总体精度(Overall Accuracy, OA):样本中正确分类的总数除以样本总数。
OA=(TP+TN)/(TP+FN+FP+TN)2.平均精度(Average Accuracy, AA):每一类别中预测正确的数目除以该类总数,记为该类的精度,最后求每类精度的平均。
AA=(TP/(TP+FN)+TN/(FP+TN))/2

OA与Accuracy定义一致。AA与Recall计算公式比较一致,不过考虑了正负两例的计算。


 Accuracy、Precision、Recall以及F-score

1.准确率(Accuracy):模型的精度,即模型预测正确的个数 / 样本的总个数;一般情况下,模型的精度越高,说明模型的效果越好。
Accuracy=(TP+TN)/(TP+TN+FP+FN) 2.精确率(Precision):模型预测为正的部分的正确率。
Precision=TP/(TP+FP) 3.召回率(Recall):真实值为正的部分,被模型预测出来且正确的比重。
Recall=TP/(TP+FN) 4.F1-score:此指标综合了Precision与Recall的产出的结果,取值范围从0到1的,1代表模型的输出最好,0代表模型的输出结果最差。
F=2*Precision*Recall/(Precision+Recall)

IoU与MIoU

以二分类为例:

IoU(Intersection over Union,交并比):计算某一类别预测结果和真实值的交集和并集的比值。计算公式如下:

MIoU(Mean Intersection over Union,平均交并比):计算所有类别的IoU的平均值。计算公式如下(因k从0开始,故需要加1):

计算二分类混淆矩阵中正负两类的MIoU MIoU=(IoU(正)+IoU(负))/2 =(TP/(FN+FP+TP)+TN/(TN+FN+FP))/2

多分类:

某一类的IoU的分子为:该类所在混淆矩阵对角线的值。

某一类的IoU的分母为:该类所在混淆矩阵对角线的位置对应的行和列的总和。(对角线位置的值只能计算一次)


因对于一个样本来说,FN+TP是固定的,那么IoU就可以变为IoU=TP/(K+FP),那么主要相当于分析TP与FP的变化趋势。孤立的分析IoU,这里有4种情况可能使得IoU变大:

1)TP不变,FP减小;IoU肯定变大

2)TP变小,FP变小;IoU应该可大可小

3)TP变大,FP不变;IoU肯定变大

3)TP变大,FP变大;IoU应该可大可小!如下表格C1到C2,IC1=1/(1+5)=1/6、IC2=3/(4+5)=1/3;此时虽然IoU变大,但是Accuracy却变小了,模型的好坏需要另外讨论。

假设TPFNFPTNTotal
C1141410
C2324110
C3232310

也就是说IoU变大,模型不一定变好,但大多数情况下还是变好的。 


 混淆矩阵及相关精度指标计算和实现记录 - 他的博客 - 博客园 (cnblogs.com)

这篇关于Overall Accuracy(OA)、Average Accuracy(AAcc)计算公式的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1009555

相关文章

泛微OA主流程节点设置子流程归档后主流程自动跳转下一个节点,子流程已归档主流程不自动跳转

⭐️如果对你有用的话,希望可以点点赞,感谢了⭐️ 主流程节点已设置触发的子流程归档后自动跳转下个节点 当子流程归档后主流程不自动跳转下个节点 是什么问题? 主流程节点中存在必填字段中有空值,需要检查主流程节点排查把空值的必填字段设置成只读或者编辑 再干预一次子流程归档,主流程即跳转下个节点

【深度学习】LSTM模型,GRU模型计算公式及其优缺点介绍

一.LSTM介绍 LSTM(Long Short-Term Memory)也称长短时记忆结构, 它是传统RNN的变体, 与经典RNN相比能够有效捕捉长序列之间的语义关联, 缓解梯度消失或爆炸现象. 同时LSTM的结构更复杂, 它的核心结构可以分为四个部分去解析: 遗忘门输入门细胞状态输出门  1LSTM的内部结构图  1.1 LSTM结构分析 结构解释图:   遗忘门部分结构图与计算

Average of Levels in Binary Tree

Input:3/ \9 20/ \15 7Output: [3, 14.5, 11]Explanation:The average value of nodes on level 0 is 3, on level 1 is 14.5, and on level 2 is 11. Hence return [3, 14.5, 11]. 思路:就是一个level order trav

基于python的人力资源管理系统/基于django的OA系统的设计与实现

摘 要 随着当今社会的发展,时代的进步,各行各业也在发生着变化,比如人力资源管理这一方面,利用网络已经逐步进入人们的生活。传统的人力资源管理,都是员工去公司查看部门信息、招聘信息,这种传统方式局限性比较大且花费较多。计算机以及人力资源管理系统为解决当前的问题提供了新的方向新的可能。 本人力资源管理系统使用了框架django开发实现了人力资源管理系统,并且使用了编程语言Java实现系统代码和数据

overall error

Overall error is same with total error in math.

C++卷积神经网络实例:tiny_cnn代码详解(6)——average_pooling_layer层结构类分析

在之前的博文中我们着重分析了convolutional_layer类的代码结构,在这篇博文中分析对应的下采样层average_pooling_layer类:   一、下采样层的作用   下采样层的作用理论上来说由两个,主要是降维,其次是提高一点特征的鲁棒性。在LeNet-5模型中,每一个卷积层后面都跟着一个下采样层:   原因就是当图像在经过卷积层之后,由于每个卷积层都有多个卷积

caffe绘制训练过程中的accuracy、loss曲线

训练模型并保存日志文件        首先建立一个训练数据的脚本文件train.sh,其内容如下,其中,2>&1   | tee examples/mnist/mnist_train_log.log 是log日志文件的保存目录。 #!/usr/bin/env sh set -e TOOLS=./build/tools $TOOLS/caffe train --solver=examp

【Keras】keras model.compile(loss='目标函数 ', optimizer='adam', metrics=['accuracy'])

讲解了各种loss https://www.cnblogs.com/smuxiaolei/p/8662177.html

泛微OA实现多选浏览框选择多个选项后带出每个选项的明细数据到明细表中

⭐️如果对你有用的话,希望可以点点赞,感谢了⭐️ 例子效果如下 实现步骤如下 代码块中写入如下代码 WfForm.bindFieldChangeEvent("field287655",function(obj,id,value){WfForm.delDetailRow("detail_5", "all"); //先执行删除操作var str = WfForm.getFieldValu

能源类SCI合集:“又水又快”,一投即中!非OA,你想要的都在这里!

录用率>99% • 影响因子:1.5-2.0 • 期刊分区:JCR2/3/4区,中科院4区 • 检索数据库:SCI&EI 双检 • 预警记录:无 • 版面费:无 • 征稿范围:有关能源与电力等问题研究均可 • 录用案例:25天录用 录用截图:期刊部投稿系统 1.、Energy Sustainability and Society • 影响因子:4.6