【林轩田】机器学习基石(七)——VC维

2024-01-05 06:08
文章标签 学习 机器 vc 基石 林轩

本文主要是介绍【林轩田】机器学习基石(七)——VC维,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Lecture 7: VC Dimension VC维

ppt
video

7.1 Definition of VC Dimension VC维的定义

复习1

上节课,林教授讲到了,当样本 N N 足够大,且成长函数mH(N)存在断点 k k 时,可以概率性地推出EoutEin


kmH(N)B(N,k)i=0k1(Ni)[Nk1] 有 断 点 k 的 m H ( N ) ≤ B ( N , k ) ≤ ∑ i = 0 k − 1 ( N i ) [ 最 大 为 N k − 1 ]

71

复习2 VC边界

对演算法 A A 在数据空间D上选择的任何假设 g g ,当D在统计学意义上足够大时,这个假设是坏假设的几率是

PD[|Eout(g)Ein(g)|>ϵ]PD[hH,s.t.|Eout(g)Ein(g)|>ϵ]4mH(2N)exp(18ϵ2N)4(2N)k1exp(18ϵ2N)[k] P D [ | E o u t ( g ) − E i n ( g ) | > ϵ ] ≤ P D [ ∃ h ∈ H , s . t . | E o u t ( g ) − E i n ( g ) | > ϵ ] ≤ 4 m H ( 2 N ) e x p ( − 1 8 ϵ 2 N ) ≤ 4 ∗ ( 2 N ) k − 1 e x p ( − 1 8 ϵ 2 N ) [ 如 果 k 存 在 的 话 ]

所以,如果

  • mH(N)kH m H ( N ) 有 断 点 k , H 是 好 的 假 设
  • ND N 足 够 大 , D 是 好 的 数 据 集

    以上两点推出,
    EinEout E i n ≃ E o u t
  • 如果,演算法 A A 选择了一个有小Ein g g A是好的演算法

有了上面三条,再加上好运气,我们就学到了好的规律!!

vc维定义

  • vc维是最大的非断点的正式名称
    72

假设函数 H H 的VC维,记为dVC(H),是使得成长函数 mH(N)=2N m H ( N ) = 2 N 最大的N,即

  • 假设函数 H H 可以shatter的最多的输入数量
  • dvc=k1
    如下图,这是上节课提出的几个例子:
    73

  • 所以,如果我们有有限个VC维的话,就可以推出不论选择哪个 g g ,都能够保证Ein(g)Eout(g),而不用关心

    • 演算法 A A 长什么样。
    • 样本分布P长什么样。
    • 目标函数 f f 长什么样。

7.2 VC dimension for perceptrons 感知器的VC维

矩阵相关

开始之前,我们先复习两个矩阵相关的概念。

逆矩阵

AnnB使AB=BA=E
BAA 则 称 , B 为 A 的 逆 矩 阵 , A 为 可 逆 矩 阵 。
E 注 : E 为 单 位 矩 阵 。

举个例子:

A=[1423] A = [ 1 2 4 3 ]

A A 的逆矩阵。
解:
假设

B=[abcd]

AB=[1423][acbd]=[a+2c4a+3cb+2d4b+3d]=[1001] A ∗ B = [ 1 2 4 3 ] ∗ [ a b c d ] = [ a + 2 c b + 2 d 4 a + 3 c 4 b + 3 d ] = [ 1 0 0 1 ]

所以,
a+2c=1,b+2d=0.4a+3c=04b+3d=1, { a + 2 c = 1 , b + 2 d = 0. 4 a + 3 c = 0 4 b + 3 d = 1 ,

得到,
B=[0.60.80.40.2] B = [ − 0.6 0.4 0.8 − 0.2 ]

线性相关

a1,a2,...am a 1 , a 2 , . . . a m 为一组 n n 维 向 量 ,若存在一组不全为0的实数 k1,k2,...km k 1 , k 2 , . . . k m ,使得

k1a1+k2a2+k3a3+...+kmam=0 k 1 a 1 + k 2 a 2 + k 3 a 3 + . . . + k m a m = 0

则称向量组 a1,a2,...,am a 1 , a 2 , . . . , a m 线性相关,反之,线性无关。

将向量组写成矩阵,如何通过矩阵的性质判断向量组是线性相关还是线性无关呢?

  • 将矩阵进行初等行变换,化为阶梯型矩阵,若非零行的行数等于向量的个数,即矩阵满秩,则为向量组线性无关;若非零行行数小于向量个数,即矩阵非满秩,则向量组线性相关。

感知器的vc维

首先我们来回顾一下二维感知器:
74
在线性可分的情况下,PLA是可以找到最佳的 g g 的,当迭代次数T足够大时,我们能保证 Ein(g)=0 E i n ( g ) = 0
在之前关于机器学习可行性的论证中,二维线性分割问题的vc维等于3是有限的,在训练样本 N N 足够大时,Eout(g)Ein(g)

所以,我们能推出,在二维线性可分问题中, PLA的 Eout(g)0 E o u t ( g ) ≃ 0

现在,我们提出一个问题,PLA在多维情况下仍旧可行吗?

75

注意到一维的感知机 dvc=2 d v c = 2 ,二维的感知机 dvc=3 d v c = 3
猜想, D D 维的感知机dvc=d+1

如何验证这个猜想呢?分为两步:

  1. 验证 dvcd+1 d v c ≥ d + 1
  2. 验证 dvcd+1 d v c ≤ d + 1

首先证明 dvcd+1 d v c ≥ d + 1 ,因为 vc v c 维的定义是,能够被shatter的最大输入数量;如果我们能找到至少1个 d d 维的能shatter的最大输入数量是d+1的情形,那么就可以说 dvcd+1 d v c ≥ d + 1
76

我们构造一个有 d+1 d + 1 个inputs的 d d 维矩阵:

X=[000...0100...0010...0001...0......000...1]

第一个input向量代表原点,有d个0;其余d行向量分别代表某一维值为1,其它维值为0的向量。

注意到图中灰色的一列,我们给向量的左边添加一列常数1,代表threshold。

d=1 d = 1 时:

X=[01] X = [ 0 1 ]

可见 d+1=2 d + 1 = 2 个inputs是shatter的
d=2 d = 2 时:
X=010001 X = [ 0 0 1 0 0 1 ]

也就是说在二维平面直角坐标系上,是(0,0),(1,0)和(0,1)三个点,我们在几何上可以很容易证明,这三个点是shatter的。

我们说 d+1 d + 1 个inputs是shatter的,就是说假设空间中,包含输出 y y 的全排列,就是对任意的y

y=y1y2...yd+1 y = [ y 1 y 2 . . . y d + 1 ]

总能找到一个 w w ,使得sign(wX)=y 成立。

注意到我们构造的矩阵是可逆的,所以 wX=yw=X1y w X = y → w = X − 1 y 总是成立的。

这里我们证明了第一个不等式,即我们找到了d维的d+1个inputs可以被shatter。

如何证明 dvc<=d+1 d v c <= d + 1 呢?我们需要证明,对d维的任意 d+2 d + 2 个输入来说,都是不能被shatter的。

77

考虑一个二维的例子, d=2,d+2=4 d = 2 , d + 2 = 4 ,也就是4行2列的矩阵,我们在左边偷偷再加一列常数1表示threshold,这样就构成了一个4行3列的矩阵。

这四个点在平面直角坐标系上的表示,分别是(0,0),(1,0),(0,1),(1,1),根据以前的学习,我们知道这四个点是不能被shatter的。
78

也就是说,如果我们定好了另外三个点分别是圈、叉、圈,第四个点一定不能是叉,只能是圈,用线性代数表示:

wTx4=wTx2+wTx3wTx1>0 w T x 4 = w T x 2 + w T x 3 − w T x 1 > 0

从矩阵的角度来说,如果一个矩阵的行数大于列数,这个矩阵的向量组是线性相关的。

79

这里假设, an a n wTxn w T x n 的符号相同,也就是说,我们假设 a1 a 1 是正的, a2,a3....,ad+1 a 2 , a 3 . . . . , a d + 1 是负的,那么
80

根据负负得正, wTxd+2 w T x d + 2 一定大于0;也就是说,不存在 xd+2 x d + 2 为叉叉的情况,这样已经证明出, d+2 d + 2 个inputs是不能被shatter的,所以 dvc<=d+1 d v c <= d + 1

所以,我们证明了d维的感知机模型, dvc=d+1 d v c = d + 1

7.3 Physical Intuition of VC Dimension vc维的直观物理解释

  • 假设的参数 w w 代表了自由程度(degrees of freedom),参数越多,代表假设空间函数的可调节能力越强。
  • 假设的数量,M=|H|,可以类比成自由程度。
  • 上一小节提到的vc维,可以理解为有效地二元分割的自由程度。

81

  • 根据经验,虽然不是总这样, dvc d v c 的值和自由参数个数是相等的。

82

第五节课曾经讨论过 M M 和机器学习两个核心问题的关系,将M转换为 dvc d v c ,结论类似。

  • dvc d v c 小时,坏事情发生的概率右边界小,也就是说我们有极高的概率保证 EoutEin E o u t ≈ E i n ,但是同时因为 dvc d v c 较小,可以选择的 H H 也少了,所以不能保证Ein足够小。
  • 反之如是。

所以选择一个合适的 dvc d v c ,或者说合适的假设空间 H H ,或者说合适的模型,是十分重要的。

11

Fun Time问题是,经过原点的也就是说固定w0为0的感知器模型的 dvc d v c 是多少?这个问题可以从自有参数与 dvc d v c 的关系入手,因为自由参数少了一个,所以 dvc d v c 也相应地减1。答案是2,d。

7.4 Interpreting VC Dimension VC维的解释

74

在深入解释vc维之前,我们先来回顾一下vc边界。vc边界指坏事发生的概率的右边界,用 δ δ 表示。

换个说法,好事情发生概率的左边界就是 1δ 1 − δ ,即

PD[|Ein(g)Eout(g)|ϵ]1δ P D [ | E i n ( g ) − E o u t ( g ) | ≤ ϵ ] ≥ 1 − δ

δ δ 表示 ϵ ϵ ,得到
85

也就是说,在 1δ 1 − δ 的概率下:

|Ein(g)Eout(g)|8Nln(4(2N)dvcδ) | E i n ( g ) − E o u t ( g ) | ≤ 8 N l n ( 4 ( 2 N ) d v c δ )

去掉绝对值,

Ein(g)8Nln(4(2N)dvcδ)Eout(g)Ein(g)+8Nln(4(2N)dvcδ) E i n ( g ) − 8 N l n ( 4 ( 2 N ) d v c δ ) ≤ E o u t ( g ) ≤ E i n ( g ) + 8 N l n ( 4 ( 2 N ) d v c δ )

86

我们重点关注右边界,使用 Ω(N,H,δ) Ω ( N , H , δ ) 表示根号项的一大串内容,视为模型复杂度的惩罚项。

87

左图横轴是 dvc d v c ,纵轴是Error。

  • 随着 dvc d v c 的增大, Ein E i n 是减小的。可以这么理解, dvc d v c 增大了,代表假设空间中可供选择的 g g 变多了,也就更容易找到小的Ein
  • 根据公式, dvc d v c 增大,模型复杂度也在增大。
  • Eout E o u t 根据前两个的走势,大致呈现山谷形。

88

给定一些参数,计算需要训练样本 N N 的值,我们发现,理论上样本N=10000dvc,但是经验上, N=10dvc N = 10 d v c 就可以了。
所以说我们的vc bound是十分宽松的,那它为什么如此宽松呢?原因如图。
89

这篇关于【林轩田】机器学习基石(七)——VC维的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/571892

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件