信息增益与决策树

2024-04-12 15:58
文章标签 信息 决策树 增益

本文主要是介绍信息增益与决策树,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

决策树是一种判别式模型。在一颗分类决策树中,非叶子节点时决策规则,叶子节点是类别。当输入一个特征向量时,按照决策树上的规则从根节点向叶节点移动,最后根据叶节点的类别判定输入向量的类别。决策树也可以用来解决回归问题。

建立一个决策树模型主要有三个步骤:特征选择决策树的生成决策树的剪枝。而特征选择时要用到信息增益这个概念。

特征选择:

对于一个随机变量X,它的熵可以表示为:


对于两个随机变量X、Y,在已知X的情况下,Y的条件熵为:


其中,


信息增益(IG)互信息(MI)的定义是:


也就是说在已知A的情况下随机变量D的不确定性的减少程度,也就是在我们知道A的情况下获得了多少信息。

如果D是数据类别的随机变量,而A是数据某个特征的随机变量,可以想见使得信息增益最大的特征是最好的特征。因为这个特征可以最大程度上减少我们对类别的不确定性。

所以在决策树模型中,使用信息增益来进行每一层的特征选择。

决策树的生成:

在特征选择的方案确定之后,建立决策树的过程就很简单了:首先根节点是所有类别;选择使得信息增益最大的特征对根节点进行划分,生成若干个子节点;递归的进行上述过程。

在建立决策树的过程中要设置终止条件,一个显而易见的终止条件是某个节点内的数据属于同一类,其他的如信息增益小于某个阈值等。当叶节点内的数据类别不一致时,使用该节点内类别的众数作为该叶节点的类别,这也是经验风险最小的结果。

决策树的剪枝:

如果决策树的层次很深、叶子节点很多的话,那么会对训练数据有很好的分类结果。试想一种极端的情况是每个叶节点只有一个训练数据,那么该模型对训练数据的分类误差是0。决策树的层次越高,或者决策树的叶节点越多,模型也就越复杂,越容易产生过拟合。跟其他的机器学习方法一样,这时需要进行正则化,也就是对决策树的模型复杂度进行惩罚。

设决策树T的叶节点个数是|T|,t是T的叶节点,该节点有Nt个样本,其中属于第k类的有Ntk个。Ht(T)为节点t上的经验熵(提到经验就是只跟训练数据有关),其计算方法跟上面熵的定义相同。
则决策树的学习损失函数定义为:


在公式的右半部,第一项表示模型对训练数据的误差,第二项是模型的复杂度,a是两者之间的平衡因子。根据该损失函数就可以训练出结构风险最小的决策树了。

上面是最简单的决策树的建模过程,下面简单提一下随机森林的概念:节选自http://www.cnblogs.com/wentingtu/archive/2011/12/22/2297405.html

随机森林:

随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之后,当有一个新的输 入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类(对于分类算法),然后看看哪一类被选择最多,就预测这个样本 为那一类。


在建立每一棵决策树的过程中,有两点需要注意 - 采样与完全分裂。首先是两个随机采样的过程,random forest对输入的数据要进行行、列的采样。对于行采样,采用有放回的方式,也就是在采样得到的样本集合中,可能有重复的样本。假设输入样本为N个,那 么采样的样本也为N个。这样使得在训练的时候,每一棵树的输入样本都不是全部的样本,使得相对不容易出现over-fitting。然后进行列采样,从M 个feature中,选择m个(m << M)。之后就是对采样之后的数据使用完全分裂的方式建立出决策树,这样决策树的某一个叶子节点要么是无法继续分裂的,要么里面的所有样本的都是指向的同一 个分类。一般很多的决策树算法都一个重要的步骤 - 剪枝,但是这里不这样干,由于之前的两个随机采样的过程保证了随机性,所以就算不剪枝,也不会出现over-fitting


按这种算法得到的随机森林中的每一棵都是很弱的,但是大家组合起来就很厉害了。我觉得可以这样比喻随机森林算法:每一棵决策树就是一个精通于某一个窄领域 的专家(因为我们从M个feature中选择m让每一棵决策树进行学习),这样在随机森林中就有了很多个精通不同领域的专家,对一个新的问题(新的输入数 据),可以用不同的角度去看待它,最终由各个专家,投票得到结果。


随机森林是一个最近比较火的算法,它有很多的优点:

1. 在数据集上表现良好;
2. 在当前的很多数据集上,相对其他算法有着很大的优势;
3. 它能够处理很高维度(feature很多)的数据,并且不用做特征选择;
4. 在训练完后,它能够给出哪些feature比较重要;
5. 在创建随机森林的时候,对generlization error使用的是无偏估计;
6. 训练速度快;
7. 在训练过程中,能够检测到feature间的互相影响;
8. 容易做成并行化方法;
9. 实现比较简单。



这篇关于信息增益与决策树的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/897581

相关文章

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti

Linux命令(11):系统信息查看命令

系统 # uname -a # 查看内核/操作系统/CPU信息# head -n 1 /etc/issue # 查看操作系统版本# cat /proc/cpuinfo # 查看CPU信息# hostname # 查看计算机名# lspci -tv # 列出所有PCI设备# lsusb -tv

【小迪安全笔记 V2022 】信息打点9~11

第9天 信息打点-CDN绕过篇&漏洞回链8接口探针&全网扫指&反向件 知识点: 0、CDN知识-工作原理及阻碍 1、CDN配置-域名&区域&类型 2、CDN绕过-靠谱十余种技战法 3、CDN绑定-HOSTS绑定指向访问 CDN 是构建在数据网络上的一种分布式的内容分发网。 CDN的作用是采用流媒体服务器集群技术,克服单机系统输出带宽及并发能力不足的缺点,可极大提升系统支持的并发流数目,减少或避

Weex入门教程之4,获取当前全局环境变量和配置信息(屏幕高度、宽度等)

$getConfig() 获取当前全局环境变量和配置信息。 Returns: config (object): 配置对象;bundleUrl (string): bundle 的 url;debug (boolean): 是否是调试模式;env (object): 环境对象; weexVersion (string): Weex sdk 版本;appName (string): 应用名字;

Python批量读取身份证信息录入系统和重命名

前言 大家好, 如果你对自动化处理身份证图片感兴趣,可以尝试以下操作:从身份证图片中快速提取信息,填入表格并提交到网页系统。如果你无法完成这个任务,我们将在“Python自动化办公2.0”课程中详细讲解实现整个过程。 实现过程概述: 模块与功能: re 模块:用于从 OCR 识别出的文本中提取所需的信息。 日期模块:计算年龄。 pandas:处理和操作表格数据。 PaddleOCR:百度的

linux上查看java最耗时的线程信息

找到JAVA进程pid ps -ef|grep java或则jps -mlv 找进行下耗时的线程TID 使用top -Hp pid可以查看某个进程的线程信息 -H 显示线程信息,-p指定pid top -Hp 10906 查看最耗时的 TID即线程id printf "%x\n" [tid] 转成16进制 java中的线程类相关信息 jstack 线程ID 可以查看某个线程的堆栈情况,特别对于h

在糖尿病患者信息管理系统中,导入病人信息功能!

在糖尿病患者信息管理系统中,导入病人信息功能!form表单提交数据(Excel文件),在后台得不到file文件,解决方法:         private File filePath; //文件         private String fileName; //文件名         private String fileType; //文件类型 注:上面filePath必须有,否则下面

前缀和 — 利用前缀信息解决子数组问题

【前缀和的核心思想是预先处理数组来快速计算任意子数组的和,基本上用于数组和序列问题。】 前缀和算法具体步骤 构造前缀和数组: 给定一个数组nums,其前缀和数组prex定义为prex[i]表示为数组nums从起始位置到第i个位置的元素累加和。构建前缀和公式: p r e x [ i ] = n u m s [ i ] ( i = = 0 ) p r e x [ i ] = p r e x

决策树的实现原理与matlab代码

很久不写博客了,感觉很长一段时间只是一味的看书,疏不知一味地看书、写代码会导致自己的思考以及总结能力变得衰弱。所以,我决定还是继续写博客。废话不多说了,今天想主要记录数据挖掘中的决策树。希望能够将自己的理解写得通俗易懂。 决策树是一种对实例分类的树形结构,树中包含叶子节点与内部节点。内部节点主要是数据中的某一特性,叶子节点是根据数据分析后的最后结果。 先看一组数据: 这组数据的特性包含