DecisionTreeClassifier重要参数、属性、接口(实现一棵树,随机性参数)

本文主要是介绍DecisionTreeClassifier重要参数、属性、接口(实现一棵树,随机性参数),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 

DecisionTreeClassifier重要参数

1.criterion

要将表格转化成一颗树,决策树需要找出最佳节点和最佳的分枝方法,对分类树来说,衡量这个“最佳”指标“叫做不纯度

criterion这个参数正是用来决定不纯度的计算方法。sklearn提供了两种选择:
1)输入”entropy“,使用信息熵
2)输入”gini“,使用基尼系数
决策树的基本流程:
直到没有更多的特征可用,或整体的不纯度已经最优,决策树就会停止生长。
建立一颗树
#######实现一棵树,随机性参数,导入需要用到的模块库
from sklearn import tree
from sklearn.datasets import load_wine  # 自带的各种数据
from sklearn.model_selection import train_test_split
# 2.观察数据的形式
wine = load_wine()   # 数据实例化 
# 特征列
wine.data
wine.data.shape  # 查看结构# 标签列
wine.target
import pandas as pd
pd.concat([pd.DataFrame(wine.data),pd.DataFrame(wine.target)],axis=1)  # 将两部分变成一个表
# 3.分训练集和测试集
Xtrain,Xtest,Ytrain,Ytest = train_test_split(wine.data,wine.target,test_size = 0.3) # 百分之三十做测试集,百分之七十做训练集
# 4.建立模型
clf = tree.DecisionTreeClassifier(criterion = 'entropy')  # 实例化参数
clf = clf.fit(Xtrain,Ytrain)   # 用训练集数据做训练模型
score = clf.score(Xtest,Ytest)  # 导入测试集,返回预测准确度accuracy
score #  查看预测准确度############5.画一颗树
import graphviz
feature_name = ['酒精','苹果酸','灰','灰的碱性','镁','总酚','类黄酮','非黄烷类酚类','花青素','颜色强度','色调','od280/od315稀释葡萄酒','脯氨酸']
# 定义决策树要画的树
dot_data = tree.export_graphviz(clf,feature_names = feature_name,class_names = ['琴酒','雪莉','贝尔摩德'],filled = True,rounded = True)
graph = graphviz.Source(dot_data)
graph
# 6.探索决策树
# 特征重要性
clf.feature_importances_[*zip(feature_name,clf.feature_importances_)]  # 将定义的特征名与特征值连起来观察

第5步已经生成一棵决策树

2、random_state & splitter

# random_state & splitter
clf = tree.DecisionTreeClassifier(criterion="entropy",random_state=30    # 用来设置分枝中的随机模式的参数
#                                   ,splitter="random"  # 用控制决策树中的随机选项,如果加上之后准确率反而降低,可以注掉)
clf = clf.fit(Xtrain, Ytrain)
score = clf.score(Xtest, Ytest)
score

可以得到准确度,然后画出一棵树

import graphviz
dot_data = tree.export_graphviz(clf,feature_names= feature_name,class_names=["琴酒","雪莉","贝尔摩德"],filled=True,rounded=True)  
graph = graphviz.Source(dot_data)
graph

此时画出的时,随机性更高,根据对random_state参数的设置,也可以解决每次画出的树都不是同一棵树的问题了。

3、剪枝参数

在不加限制的情况下,一棵决策树会生长到衡量不纯度的指标最优,或者没有更多的特征可用为止。这样的决策树
往往会过拟合,这就是说, 它会在训练集上表现很好,在测试集上却表现糟糕。 我们收集的样本数据不可能和整体
的状况完全一致,因此当一棵决策树对训练数据有了过于优秀的解释性,它找出的规则必然包含了训练样本中的噪
声,并使它对未知数据的拟合程度不足。
#我们的树对训练集的拟合程度如何?
score_train = clf.score(Xtrain, Ytrain)
score_train
max_depth
限制树的最大深度,超过设定深度的树枝全部剪掉
min_samples_leaf &min_samples_split
min_samples_leaf 限定,一个节点在分枝后的每个子节点都必须包含至少 min_samples_leaf 个训练样本,否则分
枝就不会发生,或者,分枝会朝着满足每个子节点都包含 min_samples_leaf 个样本的方向去发生
min_samples_split 限定,一个节点必须要包含至少 min_samples_split 个训练样本,这个节点才允许被分枝,否则
分枝就不会发生。
max_features & min_impurity_decrease
一般 max_depth 使用,用作树的 精修
如何确定最优的剪枝参数?
# 观察一个最优的剪枝参数
import matplotlib.pyplot as plt
test = []
for i in range(10):
    clf = tree.DecisionTreeClassifier(criterion="entropy"
                                  ,random_state=30 # 输入任意一个整数,都会让树稳定下来
                                  ,splitter="random"
                                  ,max_depth=3
#                                  ,min_samples_leaf=10 # 用来显示分支之后的叶子节点的最少个数,如果加上之后精度降低,则注掉
                                  ,min_samples_split=10 # 一个节点至少含有的节点个数,才允许被分支,如果加上之后精度降低,则注掉
                                 )
    clf = clf.fit(Xtrain,Ytrain)
    score = clf.score(Xtest,Ytest)
    test.append(score)
plt.plot(range(1,11),test,color='red',label ='max_depth')
plt.legend()
plt.show()
## 既达到测试集的拟合程度最高,又达到了节省计算空间
4、目标权重参数
class_weight & min_weight_fraction_leaf
完成样本标签平衡的参数。 使用 class_weight 参数对样本标签进行一定的均衡,给 少量的标签更多的权重,让模型更偏向少数类,向捕获少数类的方向建模。该参数默认 None ,此模式表示自动给与数据集中的所有标签相同的权重。 有了权重之后,样本量就不再是单纯地记录数目,而是受输入的权重影响了,因此这时候剪枝,就需要搭配 min_ weight_fraction_leaf 这个基于权重的剪枝参数来使用。
重要接口:
决策树最常用的接口包括 fit、score、apply、predict
#  apply 用来返回每个测试样本所在的叶子节点的索引
clf.apply(Xtest)
# predict 用来返回每个测试样本的分类/回归结果
clf.predict(Xtest)
所有接口中要求输入 X_train X_test 的部分,输入的特征矩阵必须至少是一个二维矩阵。 sklearn 不接受任何一维矩阵作为特征矩阵被输入。 如果你的数据的确只有一个特征,那必须用 reshape(-1,1) 来给 矩阵增维;如果你的数据只有一个特征和一个样本,使用reshape(1,-1) 来给你的数据增维。
属性:
属性是在模型训练之后,能够调用查看的模型的各种性质。对决策树来说,最重要的是 feature_importances_ ,能
够查看各个特征对模型的重要性。
(根据菜菜的机器学习整理)

这篇关于DecisionTreeClassifier重要参数、属性、接口(实现一棵树,随机性参数)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/155931

相关文章

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

C++11第三弹:lambda表达式 | 新的类功能 | 模板的可变参数

🌈个人主页: 南桥几晴秋 🌈C++专栏: 南桥谈C++ 🌈C语言专栏: C语言学习系列 🌈Linux学习专栏: 南桥谈Linux 🌈数据结构学习专栏: 数据结构杂谈 🌈数据库学习专栏: 南桥谈MySQL 🌈Qt学习专栏: 南桥谈Qt 🌈菜鸡代码练习: 练习随想记录 🌈git学习: 南桥谈Git 🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈�

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

如何在页面调用utility bar并传递参数至lwc组件

1.在app的utility item中添加lwc组件: 2.调用utility bar api的方式有两种: 方法一,通过lwc调用: import {LightningElement,api ,wire } from 'lwc';import { publish, MessageContext } from 'lightning/messageService';import Ca

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

4B参数秒杀GPT-3.5:MiniCPM 3.0惊艳登场!

​ 面壁智能 在 AI 的世界里,总有那么几个时刻让人惊叹不已。面壁智能推出的 MiniCPM 3.0,这个仅有4B参数的"小钢炮",正在以惊人的实力挑战着 GPT-3.5 这个曾经的AI巨人。 MiniCPM 3.0 MiniCPM 3.0 MiniCPM 3.0 目前的主要功能有: 长上下文功能:原生支持 32k 上下文长度,性能完美。我们引入了