本文主要是介绍Foundation of Machine Learning 笔记第三部分——Guarantees for Finite Hypothesis Sets in Inconsistent Case,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
前言
注意事项:
- 这个系列的文章虽然题为书本《Foundation of Machine Learning》的读书笔记,但实际我是直接对书本的部分内容进行了个人翻译,如果这个行为有不妥当的地方,敬请告知。
- 由于知识面限制,部分名词的翻译可能存在错误,部分难以翻译的名词保留英文原词。为了防止误导大家,在这里声明本文仅供参考。
- 本文基本翻译自《Foundation of Machine Learning》的2.3节。
正文
在大多数情况下,假设集 H 中往往没有与训练样本一致 (consistent) 的假设。实际上在实践中,由于学习问题可能比较困难,或者 concept class 比学习算法所使用的假设集更复杂,上述情况很典型。但虽然不一致却在训练集上错误较少的假设也可以很实用,我们接下来会证明它的错误率同样能得到一定的保证。这一部分中,我们会证明不一致且假设集有限情况下的学习保证。
为了从更加通用的背景中推导学习保证,我们将使用 Hoeffding 不等式进行证明。
定理 D.1 Hoeffding 不等式
证明 Hoeffding 不等式的证明偏离了这一章的中心,请详见该书附录。
推论 2.1
固定且使 ϵ>0 ,用 S 指代一个大小为
证明 (2.14) 和 (2.15) 均由 这个系列的第一篇中的 (2.3) 及 Hoeffding 不等式可得。Union bound 的本质是不等式:
则推论得证。
使 (2.16) 的右侧等于 δ 并求解 ϵ 就能马上得到对于单个假设的上限。
推论 2.2 泛化限制——单一假设
固定一个假设 h:X→{0,1} 。那么对于任意 δ>0 ,下面的不等式至少有 1−δ 的概率成立:
证明 根据 (2.16) 得
定理 2.2 Learning bound ——有限 H ,不一致的情况
设
证明 设 h1,…,h|H| 为 H 的元素。使用 union bound 以及对每个假设使用推论 2.2,可得:
因此,对于一个有限的假设集 H ,
要注意的是,这个上限告诉我们应该去权衡经验误差和假设集大小:一个大的假设集会被后者惩罚,但是也能够降低前者。但是当经验误差变化不大的时候,我们往往应该使用更小的假设集。这可以看做是所谓的奥卡姆剃刀原则 ( Ocaam’s Razor principle ) 的一个例子。
我的疑惑
定理2.2不能说明不一致的学习问题满足上一节中说到的 PAC 可学习的要求,事实上定理2.2说明的仅仅是:在样本量增多的情况下,任意一个假设的训练误差都会越来越逼近泛化误差。其实这种学习问题根本就不满足前面说到的 PAC 学习,那么它的泛化误差是否满足某种其他上限呢?答案是肯定的。
为了把 PAC 学习框架拓展到这类问题上,人们把 PAC 学习的要求放松了,定义了一种新的 PAC 学习框架:不可知 PAC 学习 ( Agnostic PAC-learning )。它的定义将在本书的下一部分被提出来,在下一篇博客中,我也会尝试去证明不一致情况学习问题满足不可知 PAC 学习。
这篇关于Foundation of Machine Learning 笔记第三部分——Guarantees for Finite Hypothesis Sets in Inconsistent Case的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!