什么是机器学习中的 Bagging?带有示例的指南

2024-09-06 12:36

本文主要是介绍什么是机器学习中的 Bagging?带有示例的指南,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 一、说明
  • 二、理解集成学习
    • 2.1 什么是 Bagging?
    • 2.2 Bagging 与 Boosting
    • 2.3 套袋的优点
  • 三、Python 中的 Bagging:简短教程
    • 3.1 数据集
    • 3.2 训练机器学习模型
    • 3.3 模型评估
  • 四、装袋分类器
    • 4.1 评估集成模型
    • 4.2 最佳实践和技巧
  • 五、结论

一、说明

   集成方法是机器学习中强大的技术,它可以结合多种模型来提高整体预测准确性和模型稳定性。Bootstrap Aggregating(俗称 Bagging)是一种流行且广泛实施的集成方法。在本教程中,我们将深入研究 bagging、其工作原理以及其优势所在。我们将它与另一种集成方法 (Boosting) 进行比较,并查看 Python 中的 bagging 示例。最后,您将对 bagging 有扎实的了解,包括最佳实践。

二、理解集成学习

   集成建模是一种结合多种机器学习模型来提高整体预测性能的技术。其基本思想是将一组弱学习器组合在一起形成一个强学习器。

   集成模型通常包括两个步骤:

   1 多个机器学习模型进行独立训练。
   2 他们的预测会以某种方式汇总,例如通过投票、平均或加权。然后使用该集合进行总体预测。
在这里插入图片描述

   集成往往会产生更好的结果,因为不同的模型可以相互补充并克服各自的弱点。它们还可以减少方差并防止过度拟合。

   一些流行的集成方法包括 bagging、boosting 和 stacking。集成学习广泛应用于分类、回归和聚类等机器学习任务,以提高准确性和稳健性。

2.1 什么是 Bagging?

   Bagging(引导聚合)是一种集成方法,涉及在数据的随机子集上独立训练多个模型,并通过投票或平均聚合它们的预测。

在这里插入图片描述

   具体来说,每个模型都是在随机抽样的数据子集上进行训练的,这意味着可以多次选择单个数据点。这个随机子集称为引导样本。通过在不同的引导程序上训练模型,bagging 可以减少各个模型的方差。它还通过将组成模型暴露给数据集的不同部分来避免过度拟合。

   然后通过简单的平均法将所有采样模型的预测结果合并起来,得出总体预测。这样,聚合模型就吸收了各个模型的优势,并抵消了它们的误差。

   Bagging 在减少方差和过度拟合方面特别有效,使得模型更加稳健和准确,特别是在单个模型容易出现高度可变的情况。

2.2 Bagging 与 Boosting

   Boosting 是另一种流行的集成方法,经常与 Bagging 进行比较。主要区别在于组成模型的训练方式。

   在 bagging 中,模型在不同的随机数据子集上独立并行训练。而在 boosting 中,模型按顺序训练,每个模型都会从前一个模型的错误中学习。此外,bagging 通常涉及模型的简单平均,而 boosting 则根据准确率分配权重。
在这里插入图片描述

   Bagging 可减少方差,而 boosting 可减少偏差。Bagging 可用于决策树等不稳定模型,而 boosting 更适用于线性回归等稳定模型。

   两种方法各有优缺点。Bagging 更容易并行运行,而 boosting 则更强大、更准确。在实践中,在新的问题上测试这两种方法有助于了解哪种方法效果更好。

2.3 套袋的优点

   以下是 bagging 的一些主要优点:

   1 减少过度拟合:它可以减少过度拟合模型的机会,从而提高看不见的数据的模型准确性。
   2 减少模型方差:在不同数据子集上训练的多个模型平均它们的预测,从而比单个模型产生更低的方差。
   3 提高稳定性:训练数据集的变化对 bagged 模型的影响较小,使得整体模型更加稳定。
   4 处理高变异性:对于决策树等往往具有高方差的算法特别有效。
   5 可并行计算:集成中的每个模型都可以独立训练,从而实现并行处理和有效利用计算资源。
   6 易于理解和实施: bagging 背后的概念很简单,无需对学习算法进行复杂的修改即可实现。
   7 适合处理噪声数据:平均过程有助于减少最终预测中的噪声。
   8 处理不平衡数据: Bagging 可以在数据集不平衡的情况下提供帮助,从而提高这种情况下模型的性能。

三、Python 中的 Bagging:简短教程

   在本 Python 教程中,我们将在电信客户流失数据集上训练决策树分类模型,并使用 bagging 集成方法来提高性能。我们将使用DataLab获取数据集并运行我们的代码。此DataLab 工作簿中也提供了该代码,您可以将其复制到浏览器中运行,而无需安装任何内容。

3.1 数据集

   电信客户流失数据集来自伊朗一家电信公司。数据集中的每一行都对应一位客户在一年中的活动,包括通话失败信息、订阅时长以及表明客户是否已离开服务的流失标签。

   首先,我们将加载数据集并查看前 5 行。

import pandas as pd 
customer = pd.read_csv("data/customer_churn.csv") 
customer.head()

在这里插入图片描述

   之后,我们将创建独立变量(X)和因变量(y)。然后,我们将数据集分成训练子集和测试子集。

X = customer.drop("Churn", axis=1)
y = customer.Churn
# Split into train and test 
from sklearn.model_selection import train_test_split, cross_val_score
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)

3.2 训练机器学习模型

   我们将创建一个简单的机器学习管道并在其上拟合训练数据集。管道将在将输入提供给决策树分类器之前对数据进行规范化。

from sklearn.tree import DecisionTreeClassifier
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipelinepipeline = Pipeline([('scaler', StandardScaler()),('classifier', DecisionTreeClassifier(random_state=42))
])pipeline.fit(X_train, y_train)

在这里插入图片描述

   参加“使用 Python 中的基于树的模型进行机器学习”课程,学习如何使用基于树的模型和集成通过 scikit-learn 进行回归和分类。

3.3 模型评估

   我们将评估决策树模型,以便将其与集成模型进行比较。我们将通过对测试数据表进行预测来生成分类报告。

from sklearn.metrics import classification_report# Make prediction on the testing data
y_pred = pipeline.predict(X_test)# Classification Report
print(classification_report(y_pred, y_test))

   我们的模型在多数类别“0”上实现了 96% 的精确度和 97% 的召回率,但在少数类别“1”上表现不佳。
在这里插入图片描述

   为了更好地了解模型的性能,我们将进行交叉验证并计算相应的分数。

# Evaluate the classifier using cross-validation
cv_scores = cross_val_score(pipeline, X, y, cv=5)print(f"Cross-validation scores: {cv_scores}")
print(f"Mean CV accuracy: {np.mean(cv_scores):.2f}")

分数差异很大,最高分为 95%,最低分为 92%。
分数差异很大,最高分为 95%,最低分为 92%。
Cross-validation scores: [0.95079365 0.94126984 0.93492063 0.94285714 0.92222222]
Mean CV accuracy: 0.94

四、装袋分类器

   现在,让我们使用基础估计器作为管道(标量+决策树分类器)创建一个 bagging 分类器,并在训练数据集上对其进行训练。

   我们可以通过增加来提高模型性能n_estimators,但对于基线结果来说 50 已经足够了。

from sklearn.ensemble import BaggingClassifier# Create a bagging classifier with the decision tree pipeline
bagging_classifier = BaggingClassifier(base_estimator=pipeline, n_estimators=50, random_state=42)# Train the bagging classifier on the training data
bagging_classifier.fit(X_train, y_train)

在这里插入图片描述

4.1 评估集成模型

   让我们评估集成模型的结果并将其与单一模型的性能进行比较。为此,我们将在测试数据集上生成分类报告。

# Make prediction on the testing data
y_pred = bagging_classifier.predict(X_test)# Classification Report
print(classification_report(y_pred, y_test))

   可以看到,模型性能得到了相对提升。少数类的准确率和召回率分别从 79% 提高到了 80% 和从 77% 提高到了 82%。这是一个显著的进步。

在这里插入图片描述

   现在让我们计算交叉验证分数。

# Evaluate the classifier using cross-validation
cv_scores = cross_val_score(bagging_classifier, X, y, cv=5)print(f"Cross-validation scores: {cv_scores}")
print(f"Mean CV accuracy: {np.mean(cv_scores):.2f}")

   我们的交叉验证分数方差较小,范围从 94% 到 96%。模型的整体准确率也从 94% 提高到了 95%。

Cross-validation scores: [0.95396825 0.95714286 0.94126984 0.96190476 0.95714286]
Mean CV accuracy: 0.95

   装袋技术是机器学习应用中提高模型准确性和稳定性的有用工具。

   通过“Python 中的集成方法”课程学习 bagging、boosting 和 stacking 等集成技术,以在 Python 中构建先进而有效的机器学习模型。

4.2 最佳实践和技巧

   在机器学习中使用 bagging 时,遵循最佳实践和技巧可以最大程度地提高其有效性:

   1 当您拥有决策树等高方差模型时,请使用 bagging来提高稳定性。
   2 将 bagging 与交叉验证结合起来,可以更可靠地评估您的模型。
   3 使用随机森林(袋装决策树)作为一种强大的、可立即使用的装袋技术。
   4 装袋时设置较高的n_estimators 值(如 100-200)以获得最大收益。
   5 使用可以轻松实现 Bagging 的并行化n_jobs。在多个 CPU/机器上实现它,以加快训练速度。
   6 由于 bagging 依赖于引导抽样,因此请确保每个模型都在足够多样化的数据子集上进行训练。
   7 在聚合之前,使用 优化每个模型的性能GridSearchCV。单个模型的良好性能通常意味着整体性能的更好。
   阅读MLOps(机器学习操作)最佳实践,了解成功的 MLOps 实践,以实现可靠且可扩展的机器学习系统部署。

五、结论

   在本教程中,我们探索了 bagging,一种强大的集成机器学习技术。Bagging 聚合多个模型以提高整体预测性能。我们将其与 boosting 进行了比较,并了解了它相对于使用单个模型的优势。

   最后,我们在电信客户流失数据集上用 Python 实现了 bagging 分类器。与单个决策树相比,bagged 决策树集合提高了准确性和少数类性能。此外,我们还学到了宝贵的技巧和窍门,可以最大限度地提高 bagging 在机器学习中的有效性。

   如果您想成为一名专业的机器学习工程师,请先报名参加Python 机器学习科学家职业课程。您将学习如何使用 Python 编程语言训练监督、无监督和深度学习模型。

这篇关于什么是机器学习中的 Bagging?带有示例的指南的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1142024

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

Java 创建图形用户界面(GUI)入门指南(Swing库 JFrame 类)概述

概述 基本概念 Java Swing 的架构 Java Swing 是一个为 Java 设计的 GUI 工具包,是 JAVA 基础类的一部分,基于 Java AWT 构建,提供了一系列轻量级、可定制的图形用户界面(GUI)组件。 与 AWT 相比,Swing 提供了许多比 AWT 更好的屏幕显示元素,更加灵活和可定制,具有更好的跨平台性能。 组件和容器 Java Swing 提供了许多

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识