理解 AdaBoost 算法的原理 在理解 AdaBoost 算法原理的过程中,两个关键问题需要注意: 权重是如何由分类误差决定的。如何调整前一轮错误和正确的样本的权值。 优化问题 AdaBoost 解决的是二分类问题,数据集表示为: T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x N , y N ) } T = \{(x_1, y_1), (
设计思路 AdaBoost算法属于Boosting算法家族中的一种,其基本思路是将多个弱分类器组合成一个强分类器。 “强分类器”是指一个分类准确率较高的模型“弱分类器”则是指分类准确率略高于随机猜测的简单模型。 AdaBoost的核心思想是通过 加权 的方式逐步提高分类器的性能。 首先来看AdaBoost的数学表达,使用的是 加法模型 : f ( x ) = ∑ m = 1 M α m
算法步骤 初始化样本数据,样本数据集大小为N,每个样本的权重设置为1/N。 相关公式: D 1 = ( w 11 , w 12 , w 13 , w 14 , . . . , w 1 i , . . . , w 1 N ) , w 1 i = 1 N , i = 1 , 2 , 3 , 4 , . . . , N D_1=(w_{11},w_{12},w_{13},w_{14},...,w_