DataWhale-树模型与集成学习-Task03-集成模式-202110

2023-12-27 21:58

本文主要是介绍DataWhale-树模型与集成学习-Task03-集成模式-202110,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、侧边栏练习题

1. 练习1

 

 解答:

              \begin{equation} \begin{aligned} \mathit{L}(\hat{f})&= \mathbb{E}_D[(f-\mathbb{E}_D[\hat{f}_D])+(\mathbb{E}_D[\hat{f}_D]-\hat{f}_D)+\epsilon]^2\\ &=\mathbb{E}_D[(f-\mathbb{E}_D[\hat{f}_D])^2]+\mathbb{E}_D[(\mathbb{E}_D[\hat{f}_D]-\hat{f}_D)^2]+\mathbb{E}_D[\epsilon^2]\\ &+2\mathbb{E}_D[\epsilon(f-\mathbb{E}_D[\hat{f}_D])]+2\mathbb{E}_D[\epsilon(\mathbb{E}_D[\hat{f}_D]-\hat{f}_D)]\\&+2\mathbb{E}_D[(f-\mathbb{E}_D[\hat{f}_D])(\mathbb{E}_D[\hat{f}_D]-\hat{f}_D)] \end{equation} \end{aligned}

由于\epsilon是白噪声,所以

                              \mathbb{E}_D[\epsilon(f-\mathbb{E}_D[\hat{f}_D])]=0

                              \mathbb{E}_D[\epsilon(\mathbb{E}_D[\hat{f}_D]-\hat{f}_D)]=0

最后一项推导如下:

                     \begin{equation} \begin{aligned} &\mathbb{E}_D[(f-\mathbb{E}_D[\hat{f}_D])(\mathbb{E}_D[\hat{f}_D]-\hat{f}_D)] \\ =&\mathbb{E}_D[f\mathbb{E}_D[\hat{f}_D]]-\mathbb{E}_D[\mathbb{E}_D[\hat{f}_D]^2]-\mathbb{E}_D[f\hat{f}_D]+\mathbb{E}_D[\mathbb{E}_D[\hat{f}_D]\hat{f}_D]\\ =&f\mathbb{E}_D[\hat{f}_D]-\mathbb{E}_D[\hat{f}_D]^2-f\mathbb{E}_D[\hat{f}_D]+\mathbb{E}_D[\hat{f}_D]^2\\ =&0 \end{equation} \end{aligned}

 根据上面的推导,很容易看出第四个等号成立。

2. 练习2

 解答:

(1) 如果一个模型预测值都与真实值一致,那么可以偏差方差都很小。

(2) 

偏差度量了学习算法的期望预测与真实结果的偏离程度,刻画了学习算法本身的拟合能力。

方差度量了同样大小的训练集的变动所导致的学习性能的变化,刻画了数据扰动所造成的影响。

噪声表达了当前任务上任何学习算法所能达到的期望泛化误差的下界,也就是最小值。

泛化误差可以分解为偏差、方差和噪声之和。

1) 训练程度不足时,学习器的拟合能力不够强,训练数据的扰动不足以使学习器产生显著变化,偏差将主导泛化错误率。

2)训练程度加深,学习器的拟合能力逐渐增强,训练数据发生的扰动逐渐能够被学习器学到,方差将主导泛化错误率。

3)训练程度充足后,学习器的拟合能力已经非常强,训练数据发生的轻微扰动都会导致学习器发生显著变化。训练数据非全局的特征如果被学习器学到了,将发生过拟合。

3. 练习3

解答:(解答链接),假设T为所有n个样本都至少被抽出一次的轮数,t_i表示已经抽到了i-1个不重复样本后,抽到第i个不重复样本所用的轮数。则有T=t_1+t_2+\dots+t_n,对于t_i,抽到一个新样本的概率为:

                                p_i=\frac{n-(i-1)}{n}=\frac{n-i+1}{n}

因此t_i的期望为:

                                  \mathit{E}(t_i)=\frac{1}{p_i}=\frac{n}{n-i+1}

由此可以得到:

                        \begin{equation} \begin{aligned} \mathit{E}(T)&=\mathit{E}(t_1+t_2+\dots+t_n)\\ &=\mathit{E}(t_1)+\mathit{E}(t_2)+\dots+\mathit{E}(t_n)\\ &=\frac{1}{p_1}+\frac{1}{p_2}+\dots+\frac{1}{p_n}\\ &=\frac{n}{n}+\frac{n}{n-1}+\dots+\frac{n}{1}\\ &=n\cdot\left(\frac{1}{1}+\frac{1}{2}+\dots+\frac{1}{n} \right )\\ &=n\cdot H(n) \end{equation} \end{aligned}

100个样本全部抽出期望次数为100*H(100)。

4.练习4

 解答:对于stacking 需要训练m*k+1次,预测2m*k+1次。

            对于blending需要训练m+1次,预测2m+1次。

二、知识回顾

1. 什么是偏差和方差分解?偏差是谁的偏差?此处的方差又是指什么?

解答:泛化误差可以分解为偏差、方差和噪声之和。偏差度量了学习算法的期望预测与真实结果的偏离程度,刻画了学习算法本身的拟合能力。方差度量了同样大小的训练集的变动所导致的学习性能的变化,刻画了数据扰动所造成的影响。

2. 相较于使用单个模型,bagging和boosting方法有何优势?

解答:bagging可以降低整体模型的方差,boosting可以降低整体模型的偏差。

3.请叙述stacking的集成流程,并指出blending方法和它的区别

解答:m个不同的基学习器。对于每个基模型,对数据集进行k折,k-1份做训练集,1份做验证集,依次取遍每1折做验证集其余做训练集,训练得到k个模型以及k份验证集上的相应预测结果,这些预测结果恰好能够拼接起来作为基模型在训练集上的学习特征F_i^{train},同时还要用这k个模型对测试集进行预测,并将结果进行平均作为该基模型的输出F_i^{test}。对每个基模型进行上述操作后,我们就能得到对应的训练集特征F_1^{train},\dots, F_m^{train}, 以及测试集特征F_1^{test},\dots, F_m^{test}

       此时,使用一个最终模型f, 以F_1^{train},\dots, F_m^{train}为特征,以训练集的样本标签为目标进行训练,在f完成训练后,以F_1^{test},\dots, F_m^{test}为模型的输入,得到的输出结果作为整个集成模型的输出。

       blending的区别就是不做k折,只按照一定比例划分出训练集和验证集。其缺陷在于不能使用全部的训练数据,稳健性较stacking差。

三、stacking代码实现 

from sklearn.model_selection import KFold
from sklearn.neighbors import KNeighborsRegressor
from sklearn.tree import DecisionTreeRegressor
from sklearn.linear_model import LinearRegression
from sklearn.datasets import make_regressionimport numpy as np
import pandas as pdm1=KNeighborsRegressor()
m2=DecisionTreeRegressor()
m3=LinearRegression()models=[m1,m2,m3]#from sklearn.svm import LinearSVRfinal_model=DecisionTreeRegressor()k,m=4,len(models)if  __name__=="__main__":X,y=make_regression(n_samples=1000,n_features=8,n_informative=4,random_state=0)final_X,final_y=make_regression(n_samples=500,n_features=8,n_informative=4,random_state=0)final_train=pd.DataFrame(np.zeros((X.shape[0],m)))final_test=pd.DataFrame(np.zeros((final_X.shape[0],m)))kf=KFold(n_splits=k)for model_id in range(m):model=models[model_id]for train_index,test_index in kf.split(X):X_train,X_test=X[train_index],X[test_index]y_train,y_test=y[train_index],y[test_index]model.fit(X_train,y_train)final_train.iloc[test_index,model_id]=model.predict(X_test)final_test.iloc[:,model_id]+=model.predict(final_X)final_test.iloc[:,model_id]/=kfinal_model.fit(final_train,y)res=final_model.predict(final_test)

 

四、blending代码实现

from sklearn.model_selection import KFold
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsRegressor
from sklearn.tree import DecisionTreeRegressor
from sklearn.linear_model import LinearRegression
from sklearn.datasets import make_regressionimport numpy as np
import pandas as pdm1=KNeighborsRegressor()
m2=DecisionTreeRegressor()
m3=LinearRegression()models=[m1,m2,m3]final_model=DecisionTreeRegressor()m=len(models)if  __name__=="__main__":X,y=make_regression(n_samples=1000,n_features=8,n_informative=4,random_state=0)final_X,final_y=make_regression(n_samples=500,n_features=8,n_informative=4,random_state=0)X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.5)final_train=pd.DataFrame(np.zeros((X_test.shape[0],m)))final_test=pd.DataFrame(np.zeros((final_X.shape[0],m)))for model_id in range(m):model=models[model_id]model.fit(X_train,y_train)final_train.iloc[:,model_id]=model.predict(X_test)final_test.iloc[:,model_id]+=model.predict(final_X)final_model.fit(final_train,y_train)res=final_model.predict(final_test)

这篇关于DataWhale-树模型与集成学习-Task03-集成模式-202110的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/544405

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

在JS中的设计模式的单例模式、策略模式、代理模式、原型模式浅讲

1. 单例模式(Singleton Pattern) 确保一个类只有一个实例,并提供一个全局访问点。 示例代码: class Singleton {constructor() {if (Singleton.instance) {return Singleton.instance;}Singleton.instance = this;this.data = [];}addData(value)

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss