向毕业妥协系列之机器学习笔记:决策树(二)

2023-10-22 23:59

本文主要是介绍向毕业妥协系列之机器学习笔记:决策树(二),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

一.决策树构建

二.One-hot编码

三.连续值的特征

四.回归树


一.决策树构建

构建一棵具有多个决策结点的大型决策树的构建过程(直接阅读下面的英文,简答易懂):

                                                        注:以上英文的专业术语:information gain信息增益

很明显这个构建的过程是一个递归的过程,构建完根节点,在递归构建左右子树。

其中一些参数的设置也有讲究,比如树的最大深度(a maximum depth)越大,那么这棵决策树就越能拟合复杂的数据(更复杂的多项式),但是也增加了过拟合的风险。

二.One-hot编码

我们之前讲的那个例子每个特征只有两个可能的值,但是如果我们现在如果有的特征有两个以上的输出值呢,这就要用到one-hot编码。

现在我们的新例子中耳朵形状这个特征有三个可能可能的值。

 如果某个特征有k(k>2)个可能的值,那么可以把这个特征再分成k个独立的特征,这样又变成是与不是的二进制分类问题了

三.连续值的特征

我们之前举的例子中特征可能的取值都是有两三个(是离散的),但是下面的例子我们添加了一个体重特征(每个猫的体重特征可能都不一样,动物又特别多,如果还是向上面一样有多少个体重值就分出来多少个特征,显然不合适,这个特征可以看作是连续的,所以请看下面的方法)

 解决办法:

其实就是取阈值,比如我们先取第一个阈值为8(一般是先取所有这个连续特征值的中位数),左上角的函数图像横轴是体重,纵轴是代表是不是猫(即0或1),然后显然图中是猫的点都在上侧,不是猫的点都在下侧,咱们先取了8,看到图中的蓝线,蓝线左侧有两个点(都是猫),蓝线右侧有8个点(3猫5狗),然后咱们按照上篇文章讲的计算熵的方式计算这个阈值分割之后的信息增益(初试状态还是10个动物,5猫5狗)。

然后依次取其他的阈值并分别计算对应的信息增益,最后取最大的那个信息增益对应的阈值,即Weight=9,然后咱们就可以以体重为9当作一个分割线,体重小于等于9的可以看作是猫,体重>9的可以看作是不是猫(因为在我们的常识中,狗一般都比猫重,所以这个思路也比较合理)

四.回归树

我们之前用决策树解决分类问题,如果想用来解决回归问题,那么需要用到决策树的推广,即回归树。

现在的例子如下图,还是最初的那三个特征,这些是输入数据,而最后一列是体重,即我们要根据前面的三个特征来预测这个动物的体重。

下面是我们构建的一棵决策树,再最终分类结束之后,如何预测体重呢,比如你现在输入的一个动物的其中两个特征是Ear shape是Pointy并且Face shape是Round,那么就会归类到左下角那一类,然后预测的体重就是这一类的平均体重(7.2+8.4+7.6+10.2)/ 4=8.35,其他的类也是这么计算。

回归树的构建过程:

 和之间分类的决策树构建过程有点类似,先创建根节点,决定在根节点上使用哪个特征,分类问题的决策树是需要计算最大的信息增益(即熵减少的最多),而回归的决策树需要计算哪个方差减少的最多,还是要一个一个特征去试,以耳朵形状为例简单讲解一下,用耳朵形状可以分成两类(一边五个,共10个),然后把每边的体重方差计算一下,然后再计算每边的方差和w(即上篇文章提到过的w_lef和w_right),然后看上图中的式子应该就明白了,先计算加权平均方差:

w_left*左边的方差+w_right*右边的方差

然后再计算最初状态的方差(如何计算就不说了吧,小学学过应该),

然后最初状态的方差-(w_left*左边的方差+w_right*右边的方差),其他特征依次计算,最后选取减少的最多的方差对应的那个特征即可。

然后后面的过程就是递归了。

这篇关于向毕业妥协系列之机器学习笔记:决策树(二)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/264417

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学