本文主要是介绍DataWhale-西瓜书+南瓜书-第4章决策树学习总结-Task03-202110,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
4.1 决策树的基本流程
4.2 划分选择
4.2.1 信息增益
“信息熵”是度量样本集合纯度最常用的一种指标。
信息增益定义为:
一般而言,信息增益越大,则意味着使用某属性进行划分所获得的纯度提升越大。
4.2.2 增益率
信息增益偏好可取数目较多的属性,所以要使用“增益率”。
IV(a)称为属性a的固有值,属性a的可能取值数目越多,IV(a)越大。
4.2.3 基尼系数
CART决策树算法使用“基尼系数”来选择划分属性。
属性a的基尼指数定义为
4.3 剪枝处理
剪枝是决策树学习算法对付过拟合的主要手段。分为“预剪枝”和“后剪枝”
4.3.1 预剪枝
预剪枝是指在决策树生成过程中,对每个节点在划分前先进行估计,若当前节点的划分不能带来决策树泛化性能的提升,则停止划分并将当前节点标记为叶节点。
4.3.2 后剪枝
后剪枝则是先从训练集生成一棵完整的决策树,然后自底向上地对非叶节点进行考察,若将该节点对应的子树替换为叶节点能带来决策树泛化性能的提升,则将该子树替换成叶结点。
4.4 连续与缺失值
4.4.1 连续值处理
连续值可以采用二分法,如C4.5决策树算法中的机制。
4.4.2 缺失值的处理
这篇关于DataWhale-西瓜书+南瓜书-第4章决策树学习总结-Task03-202110的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!