本文主要是介绍【R语言】基于多模型的变量重要性图 (Variable Importance Plots),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
变量重要性图 Variable Importance Plots
- 1. 写在前面
- 2.1数据导入
- 2.2 模型训练
- 2.3 变量重要性
- 2.4 变量重要性图
- 2.5 模型模拟验证
- 3.基于caret包计算变量重要性
1. 写在前面
好久没有更新博客了,正好最近在帮老师做一个项目,里面涉及到了不同环境变量的重要性制图,所以在这里把我的理解进行分享,这应该是大家都可能遇到的问题。笔者水平有限,大家发现什么问题可以给我指出。
变量重要度图(Variable importance plots) 可以非常直观的展示各个变量在模型中的重要度,从而可以更好的理解和解释所建立的模型。
2.1数据导入
这里我随机生成了一个数据集,包含了10个x变量
## 基于树模型的变量重要度图(Variable Importance Plots)-------------------------
library(vip) # 制作变量重要度图
library(rpart) # 决策树
library(randomForest) # 随机森林
library(xgboost) # 梯度提升决策树
library(mgcv)
library(caret)
library(ggplot2) # 作图mydata <- gen_friedman( # 创建数据n_samples = 100, # 行数sigma = 1, # 标准差seed = 123 # 让数据可以重复
)
nrow(mydata)
head(mydata)
数据集结构:
2.2 模型训练
这里包括了四个模型:决策树(Decision trees)、随机森林(Random forests)、梯度提升决策树(GBMs)、广义可加模型(GAM)
# 1、拟合回归决策树模型-------------------------------------------
model_tree <- rpart(y ~ ., data = mydata)# 2、拟合随机森林模型---------------------------------------------
model_rf <- randomForest(y ~ .,data = mydata,importance = TRUE) # 计算变量的重要度 # 3、拟合梯度提升决策树模型(GBMs)---------------------------------
model_gbm <- xgboost(data = data.matrix(subset(mydata, select = -y)), # 剔除y后将数据转化为矩阵格式label = mydata$y, # 指定因变量ynrounds = 100, # 提升迭代的最大次数max_depth = 5, # 树的最大深度为5,默认为6verbose = 0 # 不输出模型的运行信息
)# 4、拟合广义可加模型 (GAM)----------------------------------------
# 自动创建公式字符串:将所有自变量包裹在平滑函数 s() 中
gam_formula <- as.formula(paste("y ~", paste0("s(", names(mydata)[-1], ")", collapse = " + ")))
model_gam <- gam(gam_formula, data = mydata)
# # 拟合广义可加模型 (GAM)
# model_gam <- gam(y ~ s(x1) + s(x2) + s(x3) + s(x4) + s(x5)
# + s(x6) + s(x7) + s(x8) + s(x9) + s(x10),
# data = mydata)
2.3 变量重要性
使用vi()函数可以得到不同模型模拟的变量的重要性值
# 决策树
vi(model_tree)
# 随机森林
vi(model_rf)
# GBMs
vi(model_gbm)
# 计算GAM模型的变量重要度
vi_gam <- vi(model_gam, method = "permute", target = "y", metric = "rmse", pred_wrapper = predict)
简单列出其中一个模型的结果:
2.4 变量重要性图
这可能是大家最关心的地方
# 制作变量重要度图
p1 <- vip(model_tree) + ggtitle("Single tree")
p2 <- vip(model_rf) + ggtitle("Random forest")
p3 <- vip(model_gbm) + ggtitle("Gradient boosting")
p4 <- vip(vi_gam) + ggtitle("GAM (Generalized Additive Model)")# 将图片合并成1行3列
grid.arrange(p1, p2, p3, p4, nrow = 2)
结果展示:
可以看出,不同模型模拟的结果基本上是一致的。
2.5 模型模拟验证
这里用到了三个指标:R2、MAE和RMSE,具体公式如下,这里我没有使用Adjusted R2:
## 模型模拟效果----------------------------------------------------------------
# 定义计算 R2的函数
calc_r2 <- function(actual, predicted) {ss_res <- sum((actual - predicted) ^ 2)ss_tot <- sum((actual - mean(actual)) ^ 2)1 - (ss_res / ss_tot)
}# 定义计算 MAE 的函数
calc_mae <- function(actual, predicted) {mean(abs(actual - predicted))
}# 定义计算 RMSE 的函数
calc_rmse <- function(actual, predicted) {sqrt(mean((actual - predicted) ^ 2))
}# 获取实际值
actual_values <- mydata$y# 计算每个模型的预测值
pred_tree <- predict(model_tree, mydata)
pred_rf <- predict(model_rf, mydata)
pred_gbm <- predict(model_gbm, data.matrix(subset(mydata, select = -y)))
pred_gam <- predict(model_gam, mydata)# 计算 R2
r2_tree <- calc_r2(actual_values, pred_tree)
r2_rf <- calc_r2(actual_values, pred_rf)
r2_gbm <- calc_r2(actual_values, pred_gbm)
r2_gam <- calc_r2(actual_values, pred_gam)# 计算 MAE
mae_tree <- calc_mae(actual_values, pred_tree)
mae_rf <- calc_mae(actual_values, pred_rf)
mae_gbm <- calc_mae(actual_values, pred_gbm)
mae_gam <- calc_mae(actual_values, pred_gam)# 计算 RMSE
rmse_tree <- calc_rmse(actual_values, pred_tree)
rmse_rf <- calc_rmse(actual_values, pred_rf)
rmse_gbm <- calc_rmse(actual_values, pred_gbm)
rmse_gam <- calc_rmse(actual_values, pred_gam)# 输出结果
cat("Decision Tree: R2 =", r2_tree, "MAE =", mae_tree, "RMSE =", rmse_tree, "\n","Random Forest: R2 =", r2_rf, "MAE =", mae_rf, "RMSE =", rmse_rf, "\n","Gradient Boosting: R2 =", r2_gbm, "MAE =", mae_gbm, "RMSE =", rmse_gbm, "\n","Generalized Additive Model: R2 =", r2_gam, "MAE =", mae_gam, "RMSE =", rmse_gam, "\n"
)
结果展示:
3.基于caret包计算变量重要性
以上内容没有涉及到交叉验证,并且所有的模型评价指标都是手动计算的,现在我将使用caret包提供的函数进行计算。
caret(Classification and Regression Ensemble Training)包 是 R 语言中一个非常强大的工具,用于分类和回归模型的训练和评估。它提供了一个统一的接口来实现不同的机器学习算法,并支持模型的调参、训练、预测和评估。
主要功能和特点
- 统一的接口 : caret 提供了一个统一的接口来训练和评估各种机器学习模型,无论是分类模型还是回归模型。这样,你可以在不同的算法之间进行比较和选择。
- 模型训练 : 使用 train() 函数可以训练模型,支持多种模型算法,如决策树、随机森林、支持向量机(SVM)、梯度提升、线性回归、广义可加模型(GAM)等。
- 调参(Tuning): caret 允许你通过网格搜索(grid search)和随机搜索(random search)来调节模型的超参数,以找到最佳的参数组合。使用 train() 函数时,可以通过 tuneGrid 或 tuneLength 参数来指定需要调节的参数范围。
- 交叉验证(Cross-Validation): 提供了多种交叉验证方法,如 k 折交叉验证(k-fold cross-validation)来评估模型的性能。你可以通过 trainControl() 函数设置交叉验证的参数。
- 性能评估 : caret 可以计算模型的性能指标,如准确率(accuracy)、均方根误差(RMSE)、均方误差(MSE)、调整后的 R²(Adjusted R²)等。可以通过 postResample() 函数来提取模型的性能度量。
- 数据预处理 : 支持数据预处理操作,如数据标准化(standardization)、归一化(normalization)、特征选择(feature selection)等。这些操作可以通过 preProcess() 函数实现。
- 模型集成 : 支持多种模型集成方法,如堆叠(stacking)和集成(ensembling),以提高模型的预测性能。
## caret ----------------------------------------------------------------------
# Set up 10-fold cross-validation
train_control <- trainControl(method = "cv", number = 10)# glm with 10-fold cross-validation
model_glm_cv <- train(y ~ .,data = mydata,method = "glm",trControl = train_control,metric = "RMSE"
)# GAM with 10-fold cross-validation
model_gam_cv <- train(y ~ .,data = mydata,method = "gamSpline",trControl = train_control,metric = "RMSE"
)# Random Forest with 10-fold cross-validation
model_rf_cv <- train(y ~ .,data = mydata,method = "rf",trControl = train_control,metric = "RMSE"
)# Gradient Boosting with 10-fold cross-validation
model_gbm_cv <- train(y ~ .,data = mydata,method = "xgbTree",trControl = train_control,metric = "RMSE"
)# 计算并绘制变量重要性
vip(model_glm_cv)
vip(model_gam_cv)
vip(model_rf_cv)
vip(model_gbm_cv)# make Variable Importance Plots
p11 <- vip(model_glm_cv) + ggtitle("Generalized linear Model")
p21 <- vip(model_gam_cv) + ggtitle("Random forest")
p31 <- vip(model_rf_cv) + ggtitle("Gradient boosting")
p41 <- vip(model_gbm_cv) + ggtitle("Generalized Additive Model")grid.arrange(p11, p21, p31, p41, nrow = 2)# Extract the results
results_glm <- model_glm_cv$results
results_rf <- model_rf_cv$results
results_gbm <- model_gbm_cv$results
results_gam <- model_gam_cv$results# Print results
cat("Generalized linear Model (GLM): R2 =", max(results_glm$Rsquared), "MAE =", min(results_tree$MAE), "RMSE =", min(results_tree$RMSE), "\n","Random Forest (RF): R2 =", max(results_rf$Rsquared), "MAE =", min(results_rf$MAE), "RMSE =", min(results_rf$RMSE), "\n","Gradient Boosting (GBM): R2 =", max(results_gbm$Rsquared), "MAE =", min(results_gbm$MAE), "RMSE =", min(results_gbm$RMSE), "\n","Generalized Additive Model(GAM): R2 =", max(results_gam$Rsquared), "MAE =", min(results_gam$MAE), "RMSE =", min(results_gam$RMSE), "\n"
)
结果展示:
模型模拟精度验证:
这篇关于【R语言】基于多模型的变量重要性图 (Variable Importance Plots)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!