《机器学习》决策树 C4.5算法、cart算法

2024-08-23 04:44

本文主要是介绍《机器学习》决策树 C4.5算法、cart算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、什么是C4.5算法

1、概念

        C4.5算法是一种决策树生成算法,它使用信息增益比(gain ratio)来选择最优分裂属性,它是ID3算法的改进版本。

        C4.5算法的核心思想是选择信息增益比最大的特征作为节点进行划分,以获得最好的分类能力。它使用熵来度量数据集的不确定性,通过计算特征的信息增益来评估特征对分类的贡献程度。信息增益比越大,表示该特征对分类的影响越大。

公式及定义如下:

2、具体步骤如下:(全篇log底数为2)

        1、计算所有样本的类别熵(H)。

        2、对于每一个属性,计算该属性的熵【也为自身熵】(Hi)。

        3、对于每一个属性,计算该属性对于分类所能够带来的信息增益(Gi = H - Hi)。

        4、计算每个属性的信息增益比(gain ratio = Gi / Hi),即信息增益类别自身熵的比值。

选择具有最大信息增益比的属性作为分裂属性。

3、什么是自身熵

        即不考虑标签解结果来只考虑自己本身类别的比例

例如:A集合:[1,1,1,2,2,3,3,3,3]

        其自身熵为:-3/9log(3/9) - 2/9log(2/9) - 4/9log(4/9) = 1.5304930567574826(此处使用上节课所说的熵值计算公式)

        所以集合A的自身熵为 1.5304930567574826

4、实例,依旧是上节课的文件

4.1 计算第一层节点

        在上节课中,我们在第一步就求出了每个特征的信息增益,即:

 outlook  信息增益= 标签熵值 - 总熵值 = 0.2471

        自身熵 = -5/14log(5/14) - 4/14log(4/14) - 5/14log(5/14) = 1.577

        信息增益率 = 0.2471 / 1.577 = 0.1566

• temperature 信息增益 = 0.94 - 0.91 = 0.03

        自身熵 = -4/14log(4/14) - 6/14log(6/14) - 4/14log(4/14) = 1.557

       信息增益率 = 0.03 / 1.557 = 0.0186

• humidity信息增益 = 0.94 - 0.788 = 0.152

        自身熵 = -7/14log(7/14) - 7/14log(7/14) = 1.0

        信息增益率 = 0.152 / 1.0 =0.152

• windy信息增益 = 0.94 - 0.89 = 0.05

        自身熵 = -8/14log(8/14) - 6/14log(6/14) = 0.985

        信息增益率 = 0.05 / 0.985 = 0.049

所以有信息增益率的排序:

        天气 > 湿度 > 有风  > 温度

由此可知第一个节点为天气

此时得到以下决策树图形:

4.2 计算第二层节点
4.2.1 对hot,将hot单独取出

play 标签熵值 = -2/5log(2/5) - 3/5log(3/5) = 0.97

 temperature自身熵 = -2/5log(2/5) - 1/5log(1/5) - 2/5log(2/5) = 1.52

        信息增益 = play标签熵值 - 总熵值 =0.97 -(2/5*hot熵 + 2/5 *milld熵 + 1/5 *cool熵)= 0.57

        信息增益率 = 0.57 / 1.52 = 0.375

• humidity自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

        信息增益 = 标签熵值 - 总熵值 = 0.97 - 0 = 0.97

        信息增益率 = 1.0

• windy自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

        信息增益 = 标签熵值 - 总熵值 = 0.97 - (3/5 * FALSE熵值 + 2/5 * TRUE熵值)= 0.0192

        信息增益率 = 0.0192 / 0.97 = 0.02

由此可见,humidity天气信息增益率最大

4.2.2 对hot,将rainy单独取出

play 标签熵值 = -2/5log(2/5) - 3/5log(3/5) = 0.97

 temperature自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

        信息增益 = 0.97 - (3/5 * mild熵 + 2/5 * cool熵)= 0.0192

        信息增益率 = 0.0192 / 0.97 = 0.02

• humidity自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97

        信息增益 = 标签熵值 - 总熵值 = 0.97 -(3/5 * normal熵 + 2/5 * high熵)= 0.0192

        信息增益率 = 0.0192 / 0.97 = 0.02

• windy自身熵 = -3/5log(3/5) - 2/5log(2/5) = 0.97  

        信息增益 = 标签熵值 - 总熵值 = 0.97 - 0 = 0.97

        信息增益率 = 1

所以由此可见,windy有风信息增益率最大

4.2.3 所以可得当前决策树图:

二、什么是CART算法

1、概念

        在分类问题中,CART算法通过构建一棵二叉决策树,将数据集划分为多个子集,使得每个子集内的样本属于同一类别。它通过对特征进行划分,选择最优的切分点来构建决策树。

        在回归问题中,CART算法同样构建一棵二叉决策树,但是目标是预测一个连续的数值。它通过对特征进行划分,选择最优的切分点来构建决策树。

        CART算法的优点包括简单易于实现、具有较好的解释性、对非线性关系的建模能力强等。它在实际应用中被广泛应用于分类和回归问题的解决。

2、衡量标准

        基尼指数,GINI,其公式及定义如下:

3、实例,有如下贷款申请数据表

        首先计算各特征值的基尼系数,选择最优特征以及其最优切分点,选择最优特征以及以A1,A2,A3,A4表示有年龄、有工作、有自己的房子和信贷情况4个特征,并以1,2,3表示年龄的值为青年、中年、和老年,以1,2表示有工作和有自己房子的值为是和否,以1,2,3表示信贷情况的值为非常好、好、一般。

1)此时计算特征值为A1=1(青年)的基尼指数:
        • 首先计算青年的基尼系数(5个青年,2个贷款)

                青年的基尼系数为:2/5 *(1-2/5)+ 3/5 *(1-3/5)= 0.48

        注意:如果是二分类,这里的基尼系数可以直接为:2p*(1-p) = 2*2/5(1-2/5) = 0.48

                非青年的基尼系数为:2 * (3/10) * (1-3/10) = 0.42

        注意:这里的非青年为中年和老年

        所以,此时的总基尼指数为:5/15 * 0.48 + 10/15 * 0.42 = 0.44

2) 此时计算特征值为A1=2(中年)的基尼指数:

直接看总公式:

3) 此时计算特征值为A1=3(老年)的基尼指数:

因为老年和青年一样最小,所以都可以作为最优切分点

4)计算所有特征的基尼指数

分别计算A2(有工作)、A3(有自己房子)、A4(信贷情况)的基尼指数

同样通过上一步得到

A2=1(有工作):基尼系数为 0

A2=0(没有工作):基尼系数为 2 * 6/10 * (1 - 6/10) = 0.48

所以A2总基尼指数为:0.48 * 10/15 = 0.32

同理:A3(有自己房子)基尼指数为 0.27

A4总基尼指数为 :

A4=3(一般)基尼指数最小,为最优切分点

        所以,在A1,A2,A3,A4几个特征中,Gini(D,A3=1)=0.27最小,所以选择特征A3为最优特征A3=1为其最优切分点,于是根结点生成两个子结点,一个是叶结点,对另一个结点继续使用以上方法在A1,A2,A4中选择最优特征及其最优切分点,结果是A2=1,依此计算得知,所得结点都是叶结点.
        对于本问题,按照 CART算法所生成的决策树与按照 ID3算法所生成的决策树完全一致.

有上述结果可以画决策树如下所示:

        剩下的方法和上述基本一致,即切分出有房子的和没有房子的两组,分别对有房子和没房子对应的整个数据求基尼指数,最后即可得到下一步,切分结果如下所示:

这篇关于《机器学习》决策树 C4.5算法、cart算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1098387

相关文章

Python中的随机森林算法与实战

《Python中的随机森林算法与实战》本文详细介绍了随机森林算法,包括其原理、实现步骤、分类和回归案例,并讨论了其优点和缺点,通过面向对象编程实现了一个简单的随机森林模型,并应用于鸢尾花分类和波士顿房... 目录1、随机森林算法概述2、随机森林的原理3、实现步骤4、分类案例:使用随机森林预测鸢尾花品种4.1

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig