本文主要是介绍机器学习系列(15)_SVM碎碎念part3:如何找到最优分离超平面,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
作者:寒小阳
时间:2016年9月。
出处:http://blog.csdn.net/han_xiaoyang/article/details/52683653
声明:版权所有,转载请联系作者并注明出处
1.引言
是的,咱们第1篇blog介绍了目标;第2篇blog介绍了向量相关的背景数学知识,看到了如何求解Margin的值;今天这个部分主要目的是和大家一起来看看,选择最优超平面的推理过程。
以下是本篇的一个简短目录:
- 如何找到最优超平面
- 如何计算两超平面间的距离
- SVM的最优化问题是什么
2.如何找到最优超平面
在第2篇blog的结尾我们计算了点A。
有些情况下我们得到的超平面能够很好地完成不同类别样本点的分隔,但是却不是最佳的超平面。比如以下这个超平面是第2篇blog中求解出来的超平面。
然而第1篇blog的内容告诉我们,最优超平面是一个与数据点有最大间隔的平面。在上图中我么可以看到M1,如下图所示:
可以在上图中看到最优超平面,在我们找的最初的超平面的稍左位置,而它刚好是M_2的中点处的这条垂线。所以在SVM当中,超平面和间隔确实是密切相关的。
只要找到一个分隔超平面,我就能计算平行于这个超平面的间隔。得到间隔之后,就能通过它的中点找到另外一个超平面(比如上图的中间蓝色直线)。
- 寻找最大间隔,就是寻找最优超平面
3.我们如何找到最大间隔
说起来这个过程还挺简单的:
- 读取你的数据集。
- 找到两个平行超平面,可以划分数据并且两平面之间没有数据点。
- 最大化上述两个超平面间隔
OK,按照上面的步骤,咱们一步步看吧。
步骤1:读取想分类的数据集D
大多数时候,你会遇到二分类问题(多分类问题可以转化成二分类问题解决),数据将由n个向量xi组成。
每一个xi只能有两个可能的值 -1或1。
而且,大多数时候,比如当你做文本分类,向量xi对组成的集合。
在集合论中的初始数据集的更正式的定义是:
步骤2:找到两个平行超平面,可以划分数据并且两平面之间没有数据点。
在平面上划线来区分数据很容易。但很多情况下数据是高维的,划分数据就变得困难,因为你没办法把它画出来。(对了,即使你的数据是二维的,也有可能找不到分离超平面!只有在数据线性可分时,这样一条线才能找到。)
线性可分 与 非线性可分
因此,假设我们的数据集D是线性可分的。怎么找超平面呢?回到超平面方程:
我们在之前看到过超平面的方程可以写做
不过细心的同学,会在 维基百科中的SVM中看到下面的描述:
任何超平面都可以写成 满足w⋅x−b=0 的集合
首先,本文采用w⋅x的部分,是这样的。
在我们的定义中,向量w与x有三个维度,但在维基百科中是二维的:
给出两个三维向量w(−b,−a,1)
给出两个二维向量w′(−a,1)
现在如果我们在方程(2)的两边减去b得到:
对于这篇文章的剩余部分,我们将使用二维向量(如方程(2))。
给出一个超平面H0划分数据集并且满足:
我们选择其他两个划分数据集的超平面的H1,有如下的方程:
设定δ等距。
不过再仔细想想,你会发现w来简化问题。OK,所以我们有了一下形式的2个超平面:
还有一个事情咱们得确认一下:它们之间没有任何的数据点。我们只选择那些符合以下两个约束的超平面:
对于每一个向量xi
满足
咱们来试着理解一下上面的约束,在下面的图中,所有的红点都是1类。
因此,让我们看看下面的图,并考虑点A
当xi=A,同样的B点也是。
当xi=C,同样的D、E、F、G点也是。
类似的,对于−1类的点也满足约束。
在下图,我们看到一对超平面满足约束:
比如下面是一些不满足约束条件的情况情况:
当不满足约束时,很清楚能看到超平面之间有了数据点。
OK,所以到此为止,我们找到了一个约束条件–从而能够选择两个中间没有数据点的超平面。当然,这里举得例子是二维平面的,而实际上对于更高维的空间也是成立的。
大家总是喜欢更精简的表达形式,所以我们结合一下两种约束。
方程(4)开始
两边同乘 yi(在该约束中始终为-1)
这意味着方程式(5)可以写做:
在方程(4)中,因为y_i =1,它不改变不等号方向。
将方程式 (6)写在一起 :
OK,我们得到了一个很简洁的约束条件(方程8),它和方程4,5在数学上是等价的,也能保证两超平面间没有数据点。
步骤3:两个超平面之间的距离最大化
哈哈,大家稍微提起一点精神吧,这是本节内容中最难的部分。不过会尽量写细一点,相信大家,应该没啥问题的。
a)我们的两个超平面之间的距离是什么
OK,现在要做的事情是最大化两个超平面之间的距离,那两个超平面之间的距离怎么计算呢?好,一步步来,我们先做一些标定:
- H0的超平面
- H1的超平面
- x0上的一点
对了,从x0间的距离。
我们现在试着找出m的值。
感觉上x0如果和另一个超平面距离m的话,我们加上m应该会得到另一个超平面上的点。
不过m是一个标量,x0是一个向量,在一个向量上加一个标量的运算是完成不了的。那我们将m变换成一个向量,我们将能够做一个加法。
我们可以找到距离x0为m的所有的点,大家都知道,它是下图这样的一个圆:
OK,结合这张图,你就更清楚了,我们有长度m而缺少另外一个向量的关键信息:方向。
OK,标量加向量是没法算了,但大家都知道,向量乘以标量,会得到另外一个缩放后的向量。
OK,所以我们其实是想要找到这样一个向量:
- 长度为m
- 方向垂直于平面H1
仔细看看超平面的形式,我们发行已经有一个垂直H1)
我们定义u=w∥w∥。
如果我们用u,让k满足:
- ∥k∥=m
- k具有相同方向
那k就是我们正在寻找的向量。
对,就是通过这样一个方式把m转换成一个可以和向量x0。
如果我们在向量x0上),如下图所示
z0上意味着
我们可以用x0+k
用方程式(9)
将式子展开可得
向量与自己的内积是它的模的平方,所以:
因为x0,带入:
OK,赞,我们找到了一种计算m的方法
b) 如何最大化两个超平面之间的距离
我们现在有一个公式来计算间隔:
在这个公式中,我们唯一可以改变的变量是w的模。比如:
当∥w∥=1;
当∥w∥=2;
当∥w∥=4;
大家很容易发现,w的模越大,间隔越小。
最大化间隔也就是最小化w的模。
我们的目标是最大化间隔。在所有满足约束条件超平面中,我们选择有最小∥w∥的超平面,因为这意味着有最大间隔。
有了以下的优化问题:
解决这个问题有点像求解方程。一旦解出来答案,我们会找到满足约束条件,也使得∥w∥。对,你可以把它叫做最优超平面的方程!
4.结论
这篇博客做了一个小小的推导,最后得到的结论是:为了找到最优超平面,咱们需要解决一个优化问题。优化问题有点棘手,可能又需要一些额外的数学知识来解决他们。感兴趣的同学继续follow[第4部分:]吧。
这篇关于机器学习系列(15)_SVM碎碎念part3:如何找到最优分离超平面的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!