提升方法AdaBoost你真的懂吗

2024-06-23 21:48

本文主要是介绍提升方法AdaBoost你真的懂吗,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

路边的茶楼 人影错落
街上传来 两三声吆喝
人前摇扇 醒木拍桌
各位看官 你细听分说
                                                                                                                                《说书人》

1. 简介

提升(boosting)方法是一种常用的统计学习方法。其代表性的提升算法就是AdaBoost(Adaptive Boosting 自适应增强的缩写),AdaBoost算法是1995年由Yoav Freund和Robert Schapire提出。

2. 基本思路

AdaBoost基于思想:针对一复杂任务,综合多个专家判断得出的结论,好过其中任何一个专家的结论,类似“三个臭皮匠赛过诸葛亮”。
对于一个具体的分类问题,在给定训练样本情况下,求出一个弱分类器要比求出一个强分类器容易得太多。提升方法就是基于这一点,不要一口吃个胖子,你说你强分类器难得,我还就不要了,它从弱分类器出发,反复学习,得到一系列弱分类器,将这些弱分类器线性组合,从而构成强分类器。
没错,它就是这种我能力不咋滴(单个分类器是弱),但是我不怕苦(多学几轮),多个微不足道(多个弱分类器),足够让我美出天际(效果好)。是不是觉得AdaBoost有点酷!

3. 相关问题

针对AdaBoost,看完理论概念之后,可能存在很多疑问,下面说一下:

1、AdaBoost个体弱学习器 G k ( x ) G_k(x) Gk(x)之间是否存在强依赖关系?

答:是。AdaBoost前一轮习得的学习器,直接影响下一个弱学习器,主要是通过误差影响影响下一轮训练样本的权值,进而影响下一个学习器(下一节会具体说)。

2、是不是下一个弱分类器 G k + 1 ( x ) G_{k+1}(x) Gk+1(x)的准确率要比前一个 G k ( x ) G_{k}(x) Gk(x)高?

答:不是。之前对这一点有很深的误解,导致整体垮掉,这个坎过去之后,世界豁然开朗。AdaBoost一系列弱学习器的生成,并不是后一个比前一个更准确,而是基于本次“样本权重”的训练数据,使得本次误差最小,记住并不是整体准确性更高!怎么理解这句话呢?前一轮弱学习器习得的正确的结果在下一轮中,样本权值减小,加大错误样本的权值,也就是下一个弱学习器只是更眷顾上一轮分错的样本,并不意味着,要把上一轮分正确的样本分正确了!而样本的权值直接影响样本误差的计算,极端的情况下,我下一个弱分类器把前一轮分错的样本全分正确,即使上一轮分正确的样本在下一个分类器上全分错了,计算最终的误差也可能很小。

3、训练数据 T T T是否是同一批?

答:是也不是。
说是,是因为训练的一系列弱分类器终究都来源于最初的那一批训练数据 T T T
说不是,是因为,后一个训练弱分类器的数据来源于前一个弱分类器经过权值调整后的数据,即会提高前一轮弱分类器错误分类样本的权值,降低那些被正确分类样本的权值(错误分类的那些样本更值得关注),这个样本的权值直接影响误差的计算!!!(下一节会具体说)

4、样本权值 w w w需要初始化,是否随机?

答:需要初始化,不随机。最开始样本权值需要一视同仁,因此,所有样本等权值( 1 N \frac{1}{N} N1)。

5、怎样确认学习器 G k ( x ) G_{k}(x) Gk(x)的权重 α k \alpha_{k} αk

答:最简单的就是通过学习器 G k ( x ) G_k(x) Gk(x)的误差 e k e_k ek,我们的目的是加大小误差学习器的权重,这样我们可以构造误差 e k e_k ek的反函数来确认学习器 G k ( x ) G_k(x) Gk(x)的权重 α k \alpha_{k} αk。(下一节会具体说)

6、怎样确认下一个学习器 G k + 1 ( x ) G_{k+1}(x) Gk+1(x)所需样本的权值 w k + 1 w_{k+1} wk+1

答:加大上一个学习器 G k ( x ) G_{k}(x) Gk(x)分错样本的权值 w k w_{k} wk,降低分类正确的权值。因此,可以通过上一个学习器的误差来调整样本权值,又因学习器的权重 α k \alpha_{k} αk是误差 e k e_{k} ek的反函数,因此,就可以用上一轮学习器的权重 α k \alpha_{k} αk的反函数来调整下一轮学习器训练样本权值 w k + 1 w_{k+1} wk+1。记住喽:权重是用来计算误差的,为了降低误差,选择阈值时会倾向把权重大的分类正确。(下一节会具体说)

7、弱分类器如何组合成为强分类器?

答:AdaBoost采取加权多数表决的方法。加大那些分类正确的分类器权值,减小误分类大的权值,弱分类器之中优秀的重要性高一些。

4. 算法推导过程

假设给定一二分类训练集:

T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) } T=\{(x_1,y_1),(x_2,y_2), \dots,(x_m,y_m)\} T={(x1,y1),(x2,y2),,(xm,ym)}

其中,标记 y i ∈ { − 1 , 1 } y_{i}\in\{-1,1\} yi{1,1} m m m为样本的数量。
(1)训练样本的权值分布:

D ( k ) = ( w k 1 , w k 2 , . . . w k m ) D(k) = (w_{k1}, w_{k2}, ...w_{km}) D(k)=(wk1,wk2,...wkm)

其中 k k k为训练分类器的第 k k k轮,初始化权值 D ( 1 ) = ( 1 m , 1 m , … , 1 m ) ⏞ m 个 样 本 D(1) = \overbrace{(\frac{1}{m}, \frac{1}{m}, \dots,\frac{1}{m}) }^{m个样本} D(1)=(m1,m1,,m1) m
(2)第 k k k个弱分类器 G k ( x ) G_{k}(x) Gk(x)在训练样本 T T T上的加权误差率(错误率) e k e_k ek

e k = P ( G k ( x i ) ≠ y i ) = ∑ i = 1 m w k i I ( G k ( x i ) ≠ y i ) e_k = P(G_k(x_i) \neq y_i)\qquad\qquad \\= \sum\limits_{i=1}^{m}w_{ki}I(G_k(x_i) \neq y_i) ek=P(Gk(xi)=yi)=i=1mwkiI(Gk(xi)=yi)
这里需要多解释一下,用训练的弱分类器 G k ( x ) G_{k}(x) Gk(x)去评估训练结果 e k e_k ek(错误率),当 G k ( x i ) ≠ y i G_k(x_i) \neq y_i Gk(xi)=yi时,记录下来,并将这些用分类器 G k ( x ) G_k(x) Gk(x)分类错误的样本的权值 w k i w_{ki} wki相加。特别地,当 k = 1 k=1 k=1时,分类器 G 1 ( x ) G_1(x) G1(x)分类错误率 = 分 错 误 样 本 数 样 本 总 数 m =\frac{分错误样本数}{样本总数m} =m;当 k > 1 k>1 k>1时,分类器 G k ( x ) G_k(x) Gk(x)分类错误率 ≠ 分 错 误 样 本 数 样 本 总 数 m \neq\frac{分错误样本数}{样本总数m} =m,此时,因为样本权值不一样,所以计算错误率不能按错误样本比例计算。这里也说明一下,第 k k k个分类器从 x x x的哪里进行切分,评判标准就是,”加权“之后样本的错误率最低。
(3)接下来需要计算弱分类器 G k ( x ) G_{k}(x) Gk(x)的权重:

α k = 1 2 l o g 1 − e k e k \alpha_k = \frac{1}{2}log\frac{1-e_k}{e_k} αk=21logek1ek

这里的对数时自然对数。这里需要解释一下,弱分类器在一系列分类器中的地位如何?主要跟分类器的加权之后样本的错误率有关,降低错误率较大分类器的权重,提升错误率低的分类器权重。即分类器 G k ( x ) G_{k}(x) Gk(x)的权重 α k \alpha_k αk是加权样本错误率 e k e_{k} ek的反函数,因此,构造的上述 α k \alpha_k αk是合理的,同时可以发现只有当 e k < 1 2 e_{k}<\frac{1}{2} ek<21时, α k > 0 \alpha_{k}>0 αk>0,这样的学习器才是有意义。

(4)更新训练样本的权值分布:

D ( k + 1 ) = ( w k + 1 , 1 , w k + 1 , 2 , . . . w k + 1 , m ) D(k+1) = (w_{k+1,1}, w_{k+1,2}, ...w_{k+1,m}) D(k+1)=(wk+1,1,wk+1,2,...wk+1,m)

w k + 1 , i = w k i Z k e x p ( − α k y i G k ( x i ) ) w_{k+1,i} = \frac{w_{ki}}{Z_k}exp(-\alpha_ky_iG_k(x_i)) wk+1,i=Zkwkiexp(αkyiGk(xi))

其中, Z k Z_k Zk为规范化因子,

Z k = ∑ i = 1 m w k i e x p ( − α k y i G k ( x i ) ) Z_k = \sum\limits_{i=1}^{m}w_{ki}exp(-\alpha_ky_iG_k(x_i)) Zk=i=1mwkiexp(αkyiGk(xi))

这里需要解释一下,规范化因子的目的,主要为了保证第 k + 1 k+1 k+1轮训练样本的权值之和为1。加大本轮学习器 G k ( x ) G_{k}(x) Gk(x)分错样本的权值 w k w_{k} wk,降低分类正确的权值。因此,可以通过上一个学习器的误差率(加权错误率)来调整样本权值,又因学习器的权重 α k \alpha_{k} αk是误差 e k e_{k} ek的反函数,因此,就可以用本轮学习器的权重 α k \alpha_{k} αk的反函数来调整下一轮学习器训练样本权值 w k + 1 w_{k+1} wk+1。由公式可看出,通过指数损失函数 e x p ( x ) exp(x) exp(x)调整权重,当分类正确时,权重 w w w会降低, y i y_i yi G k ( x i ) G_k(x_i) Gk(xi)同号( y i G k ( x i ) > 0 y_iG_k(x_i)>0 yiGk(xi)>0),分类错误的增加权重 w w w。因此,构造上述的权值更新公式是合理的。记住喽:权重是用来计算误差的,为了降低误差,选择阈值时会倾向把权重大的分类正确。

(5)最终的强分类器:

f ( x ) = s i g n ( ∑ k = 1 K α k G k ( x ) ) f(x) = sign(\sum\limits_{k=1}^{K}\alpha_kG_k(x)) f(x)=sign(k=1KαkGk(x))

其中, K K K是弱分类器的总数。
至此,已经推导出了,AdaBoost的二分类。

这篇关于提升方法AdaBoost你真的懂吗的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1088365

相关文章

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti

【VUE】跨域问题的概念,以及解决方法。

目录 1.跨域概念 2.解决方法 2.1 配置网络请求代理 2.2 使用@CrossOrigin 注解 2.3 通过配置文件实现跨域 2.4 添加 CorsWebFilter 来解决跨域问题 1.跨域概念 跨域问题是由于浏览器实施了同源策略,该策略要求请求的域名、协议和端口必须与提供资源的服务相同。如果不相同,则需要服务器显式地允许这种跨域请求。一般在springbo

AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出

AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出 在数字化时代,文本到语音(Text-to-Speech, TTS)技术已成为人机交互的关键桥梁,无论是为视障人士提供辅助阅读,还是为智能助手注入声音的灵魂,TTS 技术都扮演着至关重要的角色。从最初的拼接式方法到参数化技术,再到现今的深度学习解决方案,TTS 技术经历了一段长足的进步。这篇文章将带您穿越时

模版方法模式template method

学习笔记,原文链接 https://refactoringguru.cn/design-patterns/template-method 超类中定义了一个算法的框架, 允许子类在不修改结构的情况下重写算法的特定步骤。 上层接口有默认实现的方法和子类需要自己实现的方法

java学习,进阶,提升

http://how2j.cn/k/hutool/hutool-brief/1930.html?p=73689

使用JS/Jquery获得父窗口的几个方法(笔记)

<pre name="code" class="javascript">取父窗口的元素方法:$(selector, window.parent.document);那么你取父窗口的父窗口的元素就可以用:$(selector, window.parent.parent.document);如题: $(selector, window.top.document);//获得顶级窗口里面的元素 $(