决策树与机器学习实战【代码为主】

2024-05-27 16:36

本文主要是介绍决策树与机器学习实战【代码为主】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 🛴🛴引言
  • 🛴🛴决策树使用案例
  • 🛴🛴`numpy`库生成模拟数据案例
  • 🛴🛴决策树回归问题
  • 🛴🛴决策树多分类问题

🛴🛴引言

决策树是一种经典的机器学习算法,在数据挖掘和预测分析中广泛应用。它是一种基于树结构进行决策的模型,可以用于分类和回归问题。

决策树的基本原理是通过对特征进行逐步划分,生成一棵树形结构,以实现对数据的分类或回归。从根节点开始,根据特征的不同取值,将数据划分到不同的子节点中。这个划分过程是基于一些衡量指标(例如信息增益、基尼系数等),目标是在每个节点上选择最佳的划分属性。

决策树的生成过程通常遵循下列步骤:

  • 特征选择:从给定的特征集合中选择最佳的特征作为当前节点的划分属性。衡量指标常包括信息增益、基尼系数等。
  • 树的构建:根据选择的划分属性,将数据集划分为多个子集,并生成相应的子节点。如果某个子集中的样本属于同一类别或达到终止条件,则将该节点标记为叶子节点。
  • 递归过程:对于每个子节点,重复步骤1和步骤2,直到所有数据划分完毕或达到停止条件。
  • 剪枝:为了避免过拟合,可以对生成的决策树进行剪枝。剪枝可以通过预剪枝和后剪枝两个方法实现,其中预剪枝是在生成树的过程中决定是否分裂节点,后剪枝是在生成树之后进行节点合并。
    请添加图片描述
    决策树的优点包括易于理解和解释、能够处理离散和连续特征、具有较好的可解释性等。此外,决策树还可以处理缺失值和异常值。

然而,决策树也有一些限制,包括容易过拟合、对特征空间划分较为敏感等。为了解决过拟合问题,可以通过剪枝、调整参数等方法进行优化。

在使用决策树时,需要注意以下几点:

  • 特征选择:选择合适的特征作为划分属性对决策树的性能至关重要。
  • 停止条件:设置递归停止的条件,防止过度拟合。常见的停止条件包括叶子节点中样本数量的最小值、树的最大深度、信息增益或基尼系数的阈值等。
  • 数据预处理:决策树对数据的尺度不敏感,通常不需要进行归一化或标准化处理。
  • 模型评估:决策树的常见评估指标包括准确率、精确率、召回率、F1分数等。

总之,决策树是一种直观且易于理解的机器学习模型,适用于一般的分类和回归问题。理解决策树的基本原理和构建过程,有助于更好地应用和解释该算法,为实际问题提供有效的预测和决策。
请添加图片描述



🛴🛴决策树使用案例

以下是一个使用真实数据集的示例代码,数据类型是csv,文件名称是data.csv:

import pandas as pd
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split
from sklearn import metrics
from matplotlib import pyplot as plt
from sklearn import tree# 读取数据集
data = pd.read_csv('data.csv')# 分割特征和目标变量
X = data.drop('target', axis=1)
y = data['target']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建并拟合决策树模型
model = DecisionTreeClassifier()
model.fit(X_train, y_train)# 使用模型进行预测
y_pred = model.predict(X_test)# 计算模型准确率
accuracy = metrics.accuracy_score(y_test, y_pred)
print('模型准确率:', accuracy)# 可视化决策树
fig = plt.figure(figsize=(10, 10))
_ = tree.plot_tree(model, feature_names=X.columns, class_names=['0', '1'], filled=True)
plt.show()

导入必要的库:

  • pandas用于数据分析和处理。
  • DecisionTreeClassifier用于构建决策树模型。
  • train_test_split用于将数据集划分为训练集和测试集。
  • metrics提供了一些评估模型性能的方法。
  • tree用于可视化决策树。

读取数据集:

  • 使用read_csv()函数读取名为data.csv的数据文件。

分割特征和目标变量:

  • 使用drop()函数从数据中移除目标变量,得到特征数据集X
  • 将目标变量保存在y中。

划分训练集和测试集:

  • 使用train_test_split()函数将数据集划分为训练集和测试集,其中测试集占比为0.2。

创建并拟合决策树模型:

  • 创建DecisionTreeClassifier类的实例作为模型。
  • 使用fit()方法拟合模型,传入训练集的特征数据和目标变量。

使用模型进行预测:

  • 调用已训练的模型的predict()方法,传入测试集的特征数据,得到预测结果y_pred

计算模型准确率:

  • 使用accuracy_score()函数计算模型在测试集上的准确率,传入真实的目标变量y_test和预测值y_pred

可视化决策树:

  • 创建一个图形对象fig
  • 使用tree.plot_tree()方法绘制决策树,参数包括模型、特征名称和类别名称。
  • 使用plt.show()方法显示绘制好的图形。

请确保在运行代码之前,将数据集文件data.csv放在与代码文件相同的目录下。这段代码展示了如何使用决策树模型对真实数据集进行分类预测,并可视化决策树结构。希望这可以帮助您更好地理解决策树模型的应用。如有任何疑问,请随时提问。



🛴🛴numpy库生成模拟数据案例

import numpy as np
import pandas as pd
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split
from matplotlib import pyplot as plt
from sklearn import metrics
from sklearn import tree# 生成特征数据
X = np.random.rand(100, 3)  # 生成100个样本,每个样本有3个特征# 生成目标变量
y = np.random.choice([0, 1], size=100)  # 生成100个目标变量,取值为0或1# 创建数据框
data = pd.DataFrame(X, columns=['feature1', 'feature2', 'feature3'])
data['target'] = y# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建并拟合决策树模型
model = DecisionTreeClassifier()
model.fit(X_train, y_train)# 使用模型进行预测
y_pred = model.predict(X_test)# 计算模型准确率
accuracy = metrics.accuracy_score(y_test, y_pred)
print('模型准确率:', accuracy)# 可视化决策树
fig = plt.figure(figsize=(10, 10))
_ = tree.plot_tree(model, feature_names=data.columns[:-1], class_names=['0', '1'], filled=True)
plt.show()

在这里插入图片描述
在这里插入图片描述
请添加图片描述

这段代码生成了具有3个特征和一个目标变量的模拟数据,并使用决策树模型进行学习和预测。你可以调整生成数据的方式,修改特征数量、样本数量,以及目标变量的取值等。

导入必要的库:

  • numpy用于生成随机数组作为特征数据。
  • pandas用于创建和处理数据框。
  • DecisionTreeClassifier用于创建决策树模型。
  • train_test_split用于将数据集划分为训练集和测试集。
  • metrics提供了一些评估模型性能的方法。
  • tree用于可视化决策树。

生成特征数据:

  • 使用numpy.random.rand()函数生成一个形状为(100, 3)的随机数组,表示100个样本,每个样本有3个特征。

生成目标变量:

  • 使用numpy.random.choice()函数生成一个长度为100的随机数组,随机选择值为0或1作为目标变量。

创建数据框:

  • 使用pandas.DataFrame()函数将特征数据X和目标变量y组合成一个数据框,特征列的名称为feature1feature2feature3,目标变量列的名称为target

划分训练集和测试集:

  • 使用train_test_split()函数将数据集划分为训练集和测试集,其中测试集占比为0.2。

创建并拟合决策树模型:

  • 创建DecisionTreeClassifier类的实例作为模型。
  • 使用fit()方法拟合模型,传入训练集的特征数据X_train和目标变量y_train

使用模型进行预测:

  • 调用已训练的模型的predict()方法,传入测试集的特征数据X_test,得到预测结果y_pred

计算模型准确率:

  • 使用accuracy_score()函数计算模型在测试集上的准确率,传入真实目标变量y_test和预测值y_pred

可视化决策树:

  • 创建一个图形对象fig
  • 使用tree.plot_tree()方法绘制决策树,参数包括模型、特征名称和类别名称。
  • 使用plt.show()方法显示绘制好的图形。

这段代码演示了如何使用决策树模型对生成的模拟数据进行分类预测,并可视化生成的决策树结构



🛴🛴决策树回归问题

import numpy as np
import matplotlib.pyplot as plt
from sklearn.tree import DecisionTreeRegressor
from matplotlib import pyplot as plt# 生成特征数据
X = np.random.rand(100, 1)  # 生成100个样本,每个样本有1个特征# 生成目标变量
y = np.sin(2 * np.pi * X) + np.random.normal(0, 0.1, size=(100, 1))  # 生成目标变量,使用正弦函数,并添加噪声# 创建并拟合决策树回归模型
model = DecisionTreeRegressor()
model.fit(X, y)# 预测新数据
new_data = np.linspace(0, 1, 100).reshape(-1, 1)
prediction = model.predict(new_data)# 可视化结果
plt.scatter(X, y, label='Actual')
plt.plot(new_data, prediction, color='red', label='Prediction')
plt.xlabel('X')
plt.ylabel('y')
plt.legend()
plt.show()

在这里插入图片描述
请添加图片描述

  • 导入必要的库:

    • numpy用于生成随机数和数学计算。
    • matplotlib.pyplot用于绘制图形。
    • DecisionTreeRegressor用于创建决策树回归模型。

  • 生成特征数据:

    • 使用numpy.random.rand()生成一个形状为(100, 1)的随机数组,表示100个样本,每个样本有1个特征。

  • 生成目标变量:

    • 使用正弦函数np.sin()生成目标变量y,并添加服从正态分布的噪声np.random.normal()

4- 创建并拟合决策树回归模型:

  • 创建DecisionTreeRegressor类的实例作为回归模型。
  • 使用fit()方法拟合模型,传入特征数据X和目标变量y

  • 预测新数据:
    • 生成一组新的特征数据new_data,使用np.linspace()生成0到1之间的等差数列。
    • 使用已训练的模型的predict()方法对新数据进行回归预测,得到预测结果prediction

  • 可视化结果:
    • 使用plt.scatter()绘制原始数据散点图。
    • 使用plt.plot()绘制预测结果曲线。
    • 设置横轴和纵轴标签。
    • 使用plt.legend()显示图例。
    • 使用plt.show()显示图形。

该代码演示了如何使用决策树回归模型来解决回归问题,并使用可视化方式展示预测结果。



🛴🛴决策树多分类问题

import numpy as np
from sklearn.tree import DecisionTreeClassifier
from matplotlib import pyplot as plt# 生成特征数据
X = np.random.rand(100, 2)  # 生成100个样本,每个样本有2个特征# 生成目标变量
y = np.random.randint(0, 3, size=100)  # 生成目标变量,取值为0、1、2# 创建并拟合决策树分类模型
model = DecisionTreeClassifier()
model.fit(X, y)# 预测新数据
new_data = np.random.rand(10, 2)  # 生成10个新数据样本
prediction = model.predict(new_data)print('预测结果:', prediction)

在这里插入图片描述

  • 导入必要的库:
    • numpy用于生成随机数组。
    • DecisionTreeClassifier用于创建决策树分类模型。

  • 生成特征数据:
    • 使用numpy.random.rand()生成一个形状为(100, 2)的随机数组,表示有100个样本,每个样本有2个特征。

  • 生成目标变量:
    • 使用numpy.random.randint()生成一个长度为100的随机数组,取值范围为0到2,表示3个分类。

  • 创建并拟合决策树分类模型:
    • 创建DecisionTreeClassifier类的实例作为分类模型。
    • 使用fit()方法拟合模型,传入特征数据X和目标变量`

请添加图片描述







这篇关于决策树与机器学习实战【代码为主】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1008016

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

活用c4d官方开发文档查询代码

当你问AI助手比如豆包,如何用python禁止掉xpresso标签时候,它会提示到 这时候要用到两个东西。https://developers.maxon.net/论坛搜索和开发文档 比如这里我就在官方找到正确的id描述 然后我就把参数标签换过来

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n