本文主要是介绍Level3 — PART 4 机器学习算法 — 集成学习,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
目录
模型融合
多数法(Max Voting)
平均法(Averaging)
加权平均法(Weighted Averaging)
堆叠法(Stacking)编辑
混合法(Blending)
机器学习元算法
袋装法(Bagging)
通用袋装法
随机森林
提升法(Boosting)
AdaBoost
GBDT
案例
Python中实现GBDT
XGBoost
LightGBM
模拟题
CDA LEVEL III 模拟题(一)
CDA LEVEL III 模拟题(二)
CDA LEVELⅢ 模拟题(2023新大纲)
集成学习(Ensemble Learning)作为一种流行的机器学习,它通过在数据集上构建多个模型,并集成所有模型的分析预测结果。
集成学习的目标:通过考虑多个评估器的预测分析结果,汇总后得到一个综合的结果,以达到比单个模型更好的回归/分类性能的结果。
多个模型集成的模型叫做集成评估器(ensemble estimator),其中的每个模型叫做基评估器(base estimator)。以基评估器的集成方式角度出发,集成算法可分为:
(1)装袋法(Bagging
)
方法的核心思想:构建多个相互独立的评估器,然后根据平均或多数表决原则来决定集成评估器的结果,其中典型的代表就是随机森林模型。
(2)提升法(Boosting
)
方法的核心思想:其评估器是相关的,即按照一定的顺序依次构建集成评估器。进而结合弱评估器的力量逐步提升集成器的评估能力,最终得到一个强评估器。常见的提升法模型有Adaboosting、GBDT、XGBoost、LightGBM
模型。
这篇关于Level3 — PART 4 机器学习算法 — 集成学习的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!