基于Python的机器学习系列(14):随机森林(Random Forests)

2024-08-28 09:44

本文主要是介绍基于Python的机器学习系列(14):随机森林(Random Forests),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

简介

        在上一节中,我们探讨了Bagging方法,并了解到通过构建多个树模型来减少方差是有效的。然而,Bagging方法中树与树之间仍然可能存在一定的相关性,降低了方差减少的效果。为了解决这个问题,我们引入了随机森林(Random Forests),这是一种基于Bagging的增强技术,通过在每个树的每个分割点上随机选择特征来进一步减少树之间的相关性。

1. Out of Bag (OOB) 评价

        在Bagging方法中,每棵树仅看到训练数据的一个子集。未被某棵树看到的数据被称为“袋外”(Out of Bag, OOB)数据。由于OOB数据对这棵树来说是完全陌生的,我们可以将其视为一种验证集,用来评估模型的性能。具体来说,在训练每棵树后,我们可以使用这棵树的OOB数据来测试其准确性,然后平均所有树的OOB准确性,得到整体模型的OOB评价分数。

2. 随机特征子集

        随机森林通过Bagging方法构建,但在每棵树的每个分割点上,只考虑特定数量的随机特征子集进行分裂。这样可以进一步去除树之间的相关性。通常,分类树中使用的随机特征子集大小为特征总数的平方根。

3. 特征重要性

        随机森林中的每棵决策树都可以计算每个特征对减少不纯度的贡献,并对所有树中的特征重要性进行平均,得到最终的特征重要性排序。这种方法可以帮助我们理解哪些特征在模型中最为重要。

4. 从零开始的实现

代码示例

# 引入必要的库
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report# 加载数据集
iris = load_iris()
X = iris.data
y = iris.target# 分割训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, shuffle=True, random_state=42)# 实现RandomForest类
import random, math
from sklearn.tree import DecisionTreeClassifier
from scipy import statsclass RandomForest:def __init__(self, B, bootstrap_ratio, with_no_replacement=True):self.B = Bself.bootstrap_ratio = bootstrap_ratioself.with_no_replacement = with_no_replacementself.tree_params = {'max_depth': 2, 'max_features': 'sqrt'}self.models = [DecisionTreeClassifier(**self.tree_params) for _ in range(B)]def fit(self, X, y):m, n = X.shapesample_size = int(self.bootstrap_ratio * len(X))xsamples = np.zeros((self.B, sample_size, n))ysamples = np.zeros((self.B, sample_size))xsamples_oob = []ysamples_oob = []for i in range(self.B):oob_idx = []idxes = []for j in range(sample_size):idx = random.randrange(m)if (self.with_no_replacement):while idx in idxes:idx = random.randrange(m)idxes.append(idx)oob_idx.append(idx)xsamples[i, j, :] = X[idx]ysamples[i, j] = y[idx]mask = np.zeros((m), dtype=bool)mask[oob_idx] = Truexsamples_oob.append(X[~mask])ysamples_oob.append(y[~mask])oob_score = 0print("======Out of bag score for each tree======")for i, model in enumerate(self.models):_X = xsamples[i]_y = ysamples[i]model.fit(_X, _y)_X_test = np.asarray(xsamples_oob[i])_y_test = np.asarray(ysamples_oob[i])yhat = model.predict(_X_test)oob_score += accuracy_score(_y_test, yhat)print(f"Tree {i}", accuracy_score(_y_test, yhat))self.avg_oob_score = oob_score / len(self.models)print("======Average out of bag score======")print(self.avg_oob_score)def predict(self, X):predictions = np.zeros((self.B, X.shape[0]))for i, model in enumerate(self.models):yhat = model.predict(X)predictions[i, :] = yhatreturn stats.mode(predictions)[0][0]model = RandomForest(B=5, bootstrap_ratio=0.8)
model.fit(X_train, y_train)
yhat = model.predict(X_test)
print(classification_report(y_test, yhat))

5. Sklearn 实现

# 使用Sklearn中的RandomForestClassifier
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import GridSearchCVparam_grid = {"n_estimators": [10, 50, 100], "criterion": ["gini", "entropy"],"max_depth": np.arange(1, 10)}
model = RandomForestClassifier()grid = GridSearchCV(model, param_grid, refit=True)
grid.fit(X_train, y_train)print(grid.best_params_)yhat = grid.predict(X_test)print(classification_report(y_test, yhat))

使用随机森林的时机

优点:

  • 通过投票机制减少过拟合
  • 可以并行计算,提高计算效率
  • 适用于高维数据
  • 提供特征重要性评估
  • 能够处理缺失数据
  • 适用于不平衡数据集
  • 能够解决分类和回归问题

缺点:

  • 对回归问题效果不如分类问题
  • 随机森林模型较为复杂,解释性较差
  • 对稀有特征或结果不敏感
  • 在某些情况下,更多的样本并不会提高准确性

        在处理结构化数据时,如果你追求高准确性而不太关心可解释性,随机森林是一个很好的选择。

结语

        随机森林作为一种集成学习方法,通过结合多棵决策树并进行投票或平均来提高模型的准确性和鲁棒性。它不仅能有效地减少单一决策树容易出现的过拟合问题,还能够处理高维数据和不平衡数据集,提供有价值的特征重要性评估。尽管随机森林在某些情况下可能缺乏深度解释性,但其强大的预测能力使其在实际应用中广受欢迎。总之,随机森林是一种灵活且强大的工具,尤其适合在对解释性要求不高的情况下追求高准确性的任务。

如果你觉得这篇博文对你有帮助,请点赞、收藏、关注我,并且可以打赏支持我!

欢迎关注我的后续博文,我将分享更多关于人工智能、自然语言处理和计算机视觉的精彩内容。

谢谢大家的支持!

这篇关于基于Python的机器学习系列(14):随机森林(Random Forests)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1114409

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss