【R统计】各式各样的插补法解决数据缺失的问题!

2023-11-02 00:28

本文主要是介绍【R统计】各式各样的插补法解决数据缺失的问题!,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 💂 个人信息:酷在前行
  • 👍 版权: 博文由【酷在前行】原创、需要转载请联系博主
  • 👀 如果博文对您有帮助,欢迎点赞、关注、收藏 + 订阅专栏
  • 🔖 本文收录于【R统计】,该专栏主要介绍R语言实现统计分析的过程,如数据的描述性统计、t检验、方差分析、相关性、线性回归等等。请大家多多关注点赞和支持,共同进步~ 欢迎大家订阅!

📋 文章目录

  • 构建数据
  • 简单插补
    • 均值/中位数插补
    • 随机插补
  • 基于模型的插补方法
    • 线性回归插补
    • k-最近邻插补 (k-NN)
    • 随机森林插补
  • 多重插补 (Multiple Imputation)
  • 数据插补效果展示

   在日常科研工作中,缺失数据是一个很常见的问题。特别是在大型的数据集中,由于各种不可抗因素,数据缺失几乎是难以避免的。但这就带来一个问题:当我们面对缺失数据时,应该如何处理?直接删除含有缺失值的数据行似乎是一个简单且直接的方法,但这样会导致有效数据的损失。今天,我想为大家分享几种处理数据缺失的方法。请注意,这些方法各有利弊,最适合的方法应该基于具体的数据特点和研究目的来选择。

构建数据

首先,我们要读入一个30行、14列的生态数据集。这个数据集用于示范如何处理数据中的缺失值。通过随机抽样方法,我们在数据集的copy_SOC列中人为地产生了一些缺失值。

# 数据读入test_data<- read.csv('H:/data/test_data.csv')test_data$copy_SOC <- test_data$SOC# 计算需要替换为NA的数据个数
num_na <- round(nrow(test_data) * 0.20)# 随机选择 20%索引
random_indices <- sample(1:nrow(test_data), size=num_na)# 替换选择的索引对应的数据为NA
test_data[random_indices,15] <- NAcolSums(is.na(test_data))sites             NPP            ANPP    Root.biomass             SOC 0               0               0               0               0 TN              pH            Clay            Silt            Sand 0               0               0               0               0 Bulk.density      total.PLFA    Fungal.PLFAs Bacterial.PLFAs        copy_SOC 0               0               0               0               6 

看到其中copy_SOC列有6个缺失值

简单插补

均值/中位数插补

这是一个非常基础且常用的方法。适用于数据缺失是随机的情况。方法是直接用变量的均值或中位数替代缺失值。

# 使用列的均值、中位数或众数来填充缺失值。这是最简单的方法。
test_data$mean_copy_SOC <- test_data$copy_SOC
test_data$mean_copy_SOC[is.na(test_data$mean_copy_SOC)] <- mean(test_data$copy_SOC, na.rm = TRUE)test_data$median_copy_SOC <- test_data$copy_SOC
test_data$median_copy_SOC[is.na(test_data$median_copy_SOC)] <- median(test_data$copy_SOC, na.rm = TRUE)

随机插补

直接从已有的观测值中随机选择一个值来替代缺失值。这种方法适用于数据缺失是完全随机的情况。

# 从已有的观测值中随机选择值来填充缺失值。
library(Hmisc)
test_data$Hmisc_copy_SOC <- test_data$copy_SOC
test_data$Hmisc_copy_SOC <- impute(test_data$Hmisc_copy_SOC,  'random')# 当使用impute函数时,确保你的数据是数值型的,因为这个函数主要针对数值数据设计的。
# impute 也可以使用均值,中值进行插值
# impute(test_data$Hmisc_copy_SOC,  'mean')
# impute(test_data$Hmisc_copy_SOC,  'median')

基于模型的插补方法

线性回归插补

利用其他变量对有缺失值的变量进行线性回归预测,然后用预测值来替代缺失值。

#   使用已知的其他变量作为预测变量,进行线性回归,然后使用该回归模型来预测缺失值。
test_data$lm_copy_SOC <- test_data$copy_SOCtrain_data <- test_data[!is.na(test_data$lm_copy_SOC),]# 使用train_data建立线性模型
lm_fit <- lm(lm_copy_SOC ~ NPP+ANPP+Root.biomass+TN+pH+Clay+Silt+Sand+Bulk.density+total.PLFA+   Fungal.PLFAs+Bacterial.PLFAs,train_data )
# 对线性模型进行逐步回归,筛选变量
lm_fit2 <- step(lm_fit)#模型总结
summary(lm_fit2)Call:
lm(formula = lm_copy_SOC ~ NPP + ANPP + Root.biomass + TN + Clay + Sand + Bulk.density + total.PLFA + Fungal.PLFAs + Bacterial.PLFAs, data = train_data)Residuals:Min      1Q  Median      3Q     Max 
-2.9593 -2.0936  0.2103  1.0633  4.2886 Coefficients:Estimate Std. Error t value Pr(>|t|)    
(Intercept)     -50.34984   29.42610  -1.711   0.1308    
NPP              -0.03340    0.01210  -2.760   0.0281 *  
ANPP             -0.34054    0.27252  -1.250   0.2516    
Root.biomass      0.05054    0.04098   1.233   0.2573    
TN               15.00918    1.48659  10.096 2.01e-05 ***
Clay              1.17952    1.16784   1.010   0.3461    
Sand              0.65299    0.38771   1.684   0.1360    
Bulk.density     -9.35362    8.41716  -1.111   0.3032    
total.PLFA       -1.39401    0.90615  -1.538   0.1678    
Fungal.PLFAs      2.88526    1.91431   1.507   0.1755    
Bacterial.PLFAs   2.53241    1.72284   1.470   0.1850    
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 3.586 on 7 degrees of freedom
Multiple R-squared:  0.9934, Adjusted R-squared:  0.984 
F-statistic: 105.4 on 10 and 7 DF,  p-value: 1.149e-06# 删选除用于预测的数据集
predict_data <- test_data[is.na(test_data$lm_copy_SOC),names(coefficients(lm_fit2))[-1]]# 使用该模型预测缺失值
predicted_values <- predict(lm_fit2, newdata = predict_data)# 将预测的值插入到数据中的缺失位置
test_data$lm_copy_SOC[is.na(test_data$lm_copy_SOC)] <- predicted_values

这种方法首先使用其他已知变量建立线性模型,然后用该模型预测缺失值。

k-最近邻插补 (k-NN)

该方法通过查找整个数据集中与缺失值最接近的k个观测值来插补数据。

#   使用DMwR包的knnImputation函数,基于k-NN方法填充缺失值。
remotes::install_github("cran/DMwR")library(DMwR)
test_data$DMwR_copy_SOC <- test_data$copy_SOC
knnImputation_data <- knnImputation(test_data)test_data$DMwR_copy_SOC <- knnImputation_data$DMwR_copy_SOC

随机森林插补

随机森林是一种集成学习方法,可以用来处理缺失数据问题。

#   使用missForest包,该方法基于随机森林算法对缺失值进行插补。library(missForest)
test_data$missForest_copy_SOC <- test_data$copy_SOCresult <- missForest(as.matrix(test_data))
result$OOBerrortest_data_missForest <- as.data.frame(result$ximp)test_data$missForest_copy_SOC <- test_data_missForest$missForest_copy_SOC

多重插补 (Multiple Imputation)

多重插补是一个更为复杂的方法,但也是目前广泛被认为是处理缺失数据的最佳方法之一。

#有多种实现途径使用mice包进行多重插补。这是一种更复杂但被广泛接受的方法,它创建了多个数据集,并在每个数据集上进行分析。library(mice)
test_data$mice_copy_SOC <- test_data$copy_SOC# 进行插补
imputed_test_data <- mice(test_data[c(8:14,22)], m = 5, maxit = 50, method = 'pmm', seed = 10) 
# m代表生成的数据集数量, 最大迭代50次, pmm 方法,也可以使用其他方法,具体有
# pmm                   any Predictive mean matching
# midastouch            any Weighted predictive mean matching
# sample               any Random sample from observed values
# cart                 any Classification and regression trees
# rf                   any Random forest imputations
# mean                 numeric Unconditional mean imputation
# norm                 numeric Bayesian linear regression
# norm.nob              numeric Linear regression ignoring model error
# norm.boot             numeric Linear regression using bootstrap
# norm.predict         numeric Linear regression, predicted values
# lasso.norm           numeric Lasso linear regression
# lasso.select.norm     numeric Lasso select + linear regression
# quadratic             numeric Imputation of quadratic terms
# ri                   numeric Random indicator for nonignorable data
# logreg               binary Logistic regression
# logreg.boot          binary Logistic regression with bootstrap
# lasso.logreg         binary Lasso logistic regression
# lasso.select.logreg   binary Lasso select + logistic regression
# polr                 ordered Proportional odds model
# polyreg               unordered Polytomous logistic regression
# lda                   unordered Linear discriminant analysis
# 2l.norm               numeric Level-1 normal heteroscedastic
# 2l.lmer               numeric Level-1 normal homoscedastic, lmer
# 2l.pan                numeric Level-1 normal homoscedastic, pan
# 2l.bin               binary Level-1 logistic, glmer
# 2lonly.mean          numeric Level-2 class mean
# 2lonly.norm           numeric Level-2 class normal
# 2lonly.pmm           any Level-2 class predictive mean matching# 插补的数据
imputed_test_data$imp$mice_copy_SOC# 选择第一个数据集
completed_test_data <- mice::complete(imputed_test_data) test_data$mice_copy_SOC <- completed_test_data$mice_copy_SOC

数据插补效果展示

最后,我们可以使用散点图来直观地查看各种插补方法与原始数据之间的关系。

library(ggplot2)#设置绘图主题
the <- theme_bw()+theme(legend.position = "none",axis.ticks = element_line(color = "black"),axis.text = element_text(color = "black", size=13),axis.title= element_text(color = "black", size=13),axis.line = element_line(color = "black"),panel.grid.minor = element_blank(),panel.grid.major = element_blank())test_data %>% dplyr::select(SOC, "mean_copy_SOC", "median_copy_SOC", "Hmisc_copy_SOC","lm_copy_SOC", "DMwR_copy_SOC", "missForest_copy_SOC","mice_copy_SOC") %>% pivot_longer(cols = -1, ) %>% ggplot(aes(x=value,y=SOC))+geom_point() +geom_smooth(method = 'lm',se=FALSE) +stat_poly_eq(use_label(c( "R2",  "P"), sep = "*\"; \"*"), formula = y ~ x)+the+labs(x= 'fited', y= 'real')+facet_wrap(name~.,ncol=3)+                     geom_abline(intercept = 0, slope = 1) # 1:1线

在这里插入图片描述
数据缺失是科研中常见的问题,但幸好我们有许多方法可以处理这个问题。本文介绍的方法只是其中的一部分,实际上还有许多其他的方法等待大家去探索和实践。希望这篇文章能对大家有所帮助!如果有任何问题或建议,欢迎留言交流。

这篇关于【R统计】各式各样的插补法解决数据缺失的问题!的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/326827

相关文章

Java中注解与元数据示例详解

《Java中注解与元数据示例详解》Java注解和元数据是编程中重要的概念,用于描述程序元素的属性和用途,:本文主要介绍Java中注解与元数据的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参... 目录一、引言二、元数据的概念2.1 定义2.2 作用三、Java 注解的基础3.1 注解的定义3.2 内

将sqlserver数据迁移到mysql的详细步骤记录

《将sqlserver数据迁移到mysql的详细步骤记录》:本文主要介绍将SQLServer数据迁移到MySQL的步骤,包括导出数据、转换数据格式和导入数据,通过示例和工具说明,帮助大家顺利完成... 目录前言一、导出SQL Server 数据二、转换数据格式为mysql兼容格式三、导入数据到MySQL数据

C++中使用vector存储并遍历数据的基本步骤

《C++中使用vector存储并遍历数据的基本步骤》C++标准模板库(STL)提供了多种容器类型,包括顺序容器、关联容器、无序关联容器和容器适配器,每种容器都有其特定的用途和特性,:本文主要介绍C... 目录(1)容器及简要描述‌php顺序容器‌‌关联容器‌‌无序关联容器‌(基于哈希表):‌容器适配器‌:(

C#提取PDF表单数据的实现流程

《C#提取PDF表单数据的实现流程》PDF表单是一种常见的数据收集工具,广泛应用于调查问卷、业务合同等场景,凭借出色的跨平台兼容性和标准化特点,PDF表单在各行各业中得到了广泛应用,本文将探讨如何使用... 目录引言使用工具C# 提取多个PDF表单域的数据C# 提取特定PDF表单域的数据引言PDF表单是一

Java循环创建对象内存溢出的解决方法

《Java循环创建对象内存溢出的解决方法》在Java中,如果在循环中不当地创建大量对象而不及时释放内存,很容易导致内存溢出(OutOfMemoryError),所以本文给大家介绍了Java循环创建对象... 目录问题1. 解决方案2. 示例代码2.1 原始版本(可能导致内存溢出)2.2 修改后的版本问题在

一文详解Python中数据清洗与处理的常用方法

《一文详解Python中数据清洗与处理的常用方法》在数据处理与分析过程中,缺失值、重复值、异常值等问题是常见的挑战,本文总结了多种数据清洗与处理方法,文中的示例代码简洁易懂,有需要的小伙伴可以参考下... 目录缺失值处理重复值处理异常值处理数据类型转换文本清洗数据分组统计数据分箱数据标准化在数据处理与分析过

大数据小内存排序问题如何巧妙解决

《大数据小内存排序问题如何巧妙解决》文章介绍了大数据小内存排序的三种方法:数据库排序、分治法和位图法,数据库排序简单但速度慢,对设备要求高;分治法高效但实现复杂;位图法可读性差,但存储空间受限... 目录三种方法:方法概要数据库排序(http://www.chinasem.cn对数据库设备要求较高)分治法(常

Vue项目中Element UI组件未注册的问题原因及解决方法

《Vue项目中ElementUI组件未注册的问题原因及解决方法》在Vue项目中使用ElementUI组件库时,开发者可能会遇到一些常见问题,例如组件未正确注册导致的警告或错误,本文将详细探讨这些问题... 目录引言一、问题背景1.1 错误信息分析1.2 问题原因二、解决方法2.1 全局引入 Element

linux报错INFO:task xxxxxx:634 blocked for more than 120 seconds.三种解决方式

《linux报错INFO:taskxxxxxx:634blockedformorethan120seconds.三种解决方式》文章描述了一个Linux最小系统运行时出现的“hung_ta... 目录1.问题描述2.解决办法2.1 缩小文件系统缓存大小2.2 修改系统IO调度策略2.3 取消120秒时间限制3

Python将大量遥感数据的值缩放指定倍数的方法(推荐)

《Python将大量遥感数据的值缩放指定倍数的方法(推荐)》本文介绍基于Python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处理,并将所得处理后数据保存为新的遥感影像... 本文介绍基于python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处