光谱数据处理:2.数据准确度评价指标的Python计算

2024-02-25 12:36

本文主要是介绍光谱数据处理:2.数据准确度评价指标的Python计算,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、计算相关系数R²

(1)定义介绍

        相关系数 R²,又叫做决定系数,是一种用来衡量事物之间关系密切程度的指标。我们可以把它想象成一个打分系统,这个分数会告诉我们模型对数据的拟合程度有多好。分数范围是0到1。

(2)完整代码

        首先,生成一组简单的线性相关的数据点;然后,通过sklearn库中的LinearRegression类来训练一个线性回归模型。r2_score函数用于计算模型的相关系数 R²,以评价模型对数据的拟合程度。最后,绘制原始数据和拟合线,并且显示 R² 值。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
from sklearn.metrics import r2_score# 设置随机数种子,确保每次运行程序时生成的随机数据都是一样的
np.random.seed(0)# 假设有波长这一个特征,和相对应的光谱测量值,生成100个样本的数据集
X = np.random.rand(100, 1) * 100  # 波长特征,假设范围从0到100
y = 5 * X.squeeze() + np.random.randn(100) * 10  # 真实值加上一些随机噪声# 初始化线性回归模型
model = LinearRegression()# 训练模型,即找到最佳拟合线
model.fit(X, y)# 使用模型进行预测
y_pred = model.predict(X)# 计算相关系数 R²,评价模型的拟合效果
r2 = r2_score(y, y_pred)# 绘制原始数据和预测结果的图表
plt.scatter(X, y, color='blue', label='Original Data')  # 原始数据点
plt.plot(X, y_pred, color='red', label='Fit Line')  # 拟合的直线
plt.title(f'Linear Regression Fit (R²: {r2:.2f})')  # 标题,包含R²得分
plt.xlabel('Wavelength')  # x轴标签
plt.ylabel('Spectral Measurement')  # y轴标签
plt.legend()  # 显示图例
plt.show()  # 显示图表

(3)运行结果

二、计算交叉验证均方根误差RMSECV

(1)定义介绍

        交叉验证均方根误差(RMSECV)是一个衡量模型预测精度的指标。为了通俗地解释这个概念,我们可以将其拆解成几个部分来理解:交叉验证(CV)、均方误差(MSE)和均方根误差(RMSE)。

        首先,均方误差(MSE)是一种测量预测值和实际值差距大小的方法。你可以想象有一个靶子,你的任务是射箭,箭头落点的位置是你的预测值,靶心是实际值。每一次射箭,你的箭与靶心之间的距离就好比是预测值和实际值之间的误差。均方误差就是把所有箭与靶心的距离(误差)平方后求平均,这样可以确保误差总是正数,而且更重视那些离靶心远的箭(大误差)。

        然后,均方根误差(RMSE)就是均方误差的平方根。继续用射箭的例子,如果我们计算了MSE,我们得到的是所有箭头与靶心距离平方值的平均数,但这个数是在平方后的尺度上,不是原本的距离尺度。所以,我们得取平方根来回到原来的距离尺度,这样就可以更直观地理解预测值和实际值之间的平均距离了。

        最后,交叉验证(CV)是一种评估模型泛化能力的技术。想象你有一堆箭,而不是每次都用同一些箭射靶,你决定每次选择不同的箭来进行射击,这样可以确保每一支箭都有机会参与射击,并且每次射击都用不同的箭来评估你的射击技巧。在数据模型中,交叉验证就是把数据分成几部分,轮流使用其中一部分作为测试数据,其余作为训练数据,这样可以减少由于数据划分导致的偶然性,得到更可靠的模型评估。

        所以,交叉验证均方根误差(RMSECV)就是在交叉验证过程中计算出的每一轮RMSE的平均值。这个平均值可以告诉我们,模型在不同的数据子集上的平均表现如何,而且因为是RMSE,它是在原始数据的尺度上的,更加直观。一个较低的RMSECV意味着模型的预测误差较小,模型的预测性能较好。

(2)完整代码

        首先,用cross_val_score函数从sklearn.model_selection来实现交叉验证,并计算每个折叠的均方误差(MSE);然后,取均值并开平方根得到RMSECV;最后,绘图显示原始数据点和线性回归预测的结果并输出计算得到的RMSECV值。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import cross_val_score# 设置随机数种子,确保每次运行程序时生成的随机数据都是一样的
np.random.seed(0)# 模拟生成光谱数据,假设有波长这一个特征,和对应的光谱测量值,生成100个样本的数据集
X = np.random.rand(100, 1) * 100  # 波长特征,假设范围从0到100
y = 5 * X.squeeze() + np.random.randn(100) * 10  # 真实值加上一些随机噪声# 初始化线性回归模型
model = LinearRegression()# 这里的负数是因为cross_val_score默认计算的是负的均方误差
# 取负数再开方得到RMSECV
scores = cross_val_score(model, X, y, scoring='neg_mean_squared_error', cv=5)
rmsecv = np.sqrt(-scores.mean())# 训练模型,即找到最佳拟合线
model.fit(X, y)# 使用模型进行预测
y_pred = model.predict(X)# 绘制原始数据和预测结果的图表
plt.scatter(X, y, color='blue', label='Original Data')  # 原始数据点
plt.plot(X, y_pred, color='red', label='Prediction')  # 模型预测结果
plt.title(f'Linear Regression with RMSECV: {rmsecv:.2f}')  # 图表标题
plt.xlabel('Wavelength')  # x轴标签
plt.ylabel('Spectral Measurement')  # y轴标签
plt.legend()  # 显示图例
plt.show()  # 显示图表# 输出RMSECV值
print(f'The RMSECV (Root Mean Squared Error of Cross-Validation) is: {rmsecv:.2f}')

(3)运行结果

三、计算Clarke 误差网格

(1)定义介绍

       Clarke误差网格是一种图形工具,它帮助我们理解两组测量数据之间的关系。想象一下,你有一个理想的测量设备,它总是能够给出完美的结果。现在,你用一个真实的设备去测量同样的东西,并得到了一系列的结果。你想知道这个真实设备测量的准确度如何。

这时候,Clarke误差网格就派上用场了。这个网格将图表分成了几个区域,每个区域都对应着不同级别的准确度:

  • A区:这里的数据点表示真实设备的测量结果与理想设备非常接近,也就是说测量非常准确。
  • B区:数据点在这里意味着真实设备的测量结果虽然不完美,但误差在可接受范围内。
  • C区:在这个区域的数据点表明测量结果有一定的误差,这可能会导致一些问题。
  • D区和E区:这两个区域的数据点表示真实设备的测量结果与理想设备相差很远,可能会造成严重的后果。

        通过查看数据点在这个网格上的分布,我们可以快速判断出设备的测量准确性。如果大多数数据点都在A区,那么这个设备就是非常可靠的。如果数据点散布在C、D或E区,那么这个设备可能就不适合用于重要的测量任务。

        简而言之,Clarke误差网格就像是一个成绩报告卡,它告诉你设备的表现如何,帮助你决定是否可以信任这个设备的测量结果。

(2)完整代码

      计算Clarke 误差网格一般有以下四个步骤:

  1. 生成模拟数据:代码首先使用numpy库生成了两组数据。reference_values是一组均匀分布在0到300之间的100个数值,模拟理想情况下的光谱测量值。measured_values是在reference_values的基础上加上了正态分布的随机噪声(均值为0,标准差为10)生成的,模拟实际的光谱测量值。

  2. 定义绘制Clarke误差网格的函数plot_clarke_error_grid函数负责创建Clarke误差网格,并在网格上绘制模拟数据点。函数内部首先定义了Clarke误差网格的五个区域(A, B, C, D, E)的边界点。然后,利用matplotlib库中的fill函数根据这些边界点填充网格区域的颜色,并用scatter函数将模拟的数据点绘制在图表上。

  3. 设置图表属性:在函数中设定了图表的标题、x轴和y轴的标签、图例、坐标轴等比例(使x轴和y轴的刻度保持一致)、x轴和y轴的显示范围以及网格线。

  4. 显示结果:最后,调用plot_clarke_error_grid函数将模拟的参考值和测量值传入,运行函数以绘制并显示Clarke误差网格和数据点。结果是一个图表,显示了数据点在不同准确性区域的分布。

        完整代码如下:

import matplotlib.pyplot as plt
import numpy as np# 模拟生成光谱数据
np.random.seed(0)
reference_values = np.linspace(0, 300, 100)  # 参考光谱测量值
measured_values = reference_values + np.random.normal(0, 10, reference_values.shape)  # 实际光谱测量值,附加一些误差# 绘制Clarke误差网格
def plot_clarke_error_grid(reference, measured):# Clarke错误网格的临界点定义grid_points = {'A': [(0, 70), (0, 70), (70, 290), (70, 260), (130, 180), (180, 340), (260, 290), (340, 390)],'B': [(0, 70), (0, 55), (70, 70), (180, 70), (260, 115), (260, 70)],'C': [(70, 70), (180, 70), (240, 70), (240, 30), (70, 30)],'D': [(240, 70), (240, 30), (300, 0), (390, 0), (390, 70)],'E': [(260, 70), (390, 70), (390, 390), (260, 390)]}# 绘制Clarke误差网格区域for zone in grid_points:points = np.array(grid_points[zone])plt.fill(points[:, 0], points[:, 1], label=f'Zone {zone}')# 绘制数据点plt.scatter(measured, reference, marker='o')plt.title('Clarke Error Grid Analysis')plt.xlabel('Measured Concentration')plt.ylabel('Reference Concentration')plt.legend(loc='upper right')plt.axis('equal')plt.xlim(0, 400)plt.ylim(0, 400)plt.grid(True)plt.show()# 运行Clarke误差网格分析
plot_clarke_error_grid(reference_values, measured_values)

(3)运行结果

这篇关于光谱数据处理:2.数据准确度评价指标的Python计算的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/745489

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss