本文主要是介绍《机器学习中的数学》——逻辑(斯特)回归,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
目录
- 摘要
- 问题分析
- 总结与链接
摘要
逻辑斯特回归同样属于监督学习,说到回归一般指的是对连续值的预测,这里的逻辑斯特回归用来解决分类问题,此篇博客主要以二分类为例子分析。
例子如下:
横坐标表示肿瘤大小,纵坐标表示是否为恶性肿瘤。
可以看到线性回归得到的一条直线中加上一个阈值(大于某一值取正样本,反之取负样本)可以对这8个样本点有一个比较明确的分类,如下如图:
但是这个方法对噪声点很敏感,如果我们增加三个样本点,得到一个新的拟合直线:
再用刚才的阈值来划分时发现,新添加的样本被判断错了,鲁棒性不够,由此可见在线性回归中很难找一个绝对的值来严格划分样本结果,此时使用逻辑斯特回归来解决。
问题分析
逻辑斯特回归利用一个相对的值(线性回归不能绝对的确定结果)——概率,来对每一个样本点预测,它的输出被映射到 [ 0 , 1 ] [0,1] [0,1]上,是一个连续值。此映射归功于sigmoid函数:
y = 1 1 + e − x y=\frac{1}{1+e^{-x}} y=1+e−x1
逻辑斯特的做法是:将线性回归的结果映射到sigmoid函数可以得到每一个样本点的概率值。但是需要一组好的参数来将样本分开,这里的参数就是判定边界的参数。
接下来讨论一个概念——判定边界,就是在样本集中分类的边界。
如图线性回归中,判定边界为一条直线,我们假设为 y = − 3 + x 1 + x 2 y=-3+x_1+x_2 y=−3+x1+x2,当 y = 0 y=0 y=0时,直线将样本划分为两类:
其中: h θ ( x ) = g ( θ 0 + θ 1 x 1 + θ 2 x 2 ) h_\theta(x)=g(\theta_0+\theta_1x_1+\theta_2x_2) hθ(x)=g(θ0+θ1x1+θ2x2)
表示将线性回归的结果映射到sigmoid函数, h θ ( x ) h_\theta(x) hθ(x)输出一个 [ 0 , 1 ] [0,1] [0,1]的概率值, y = 0 y=0 y=0为此时的判定边界,在直线上方是正样本,下方为负样本,假设的参数 θ \theta θ是要学习的。
同理当我们造出高次项的特征时,非线性的判定边界也可以是曲线。当 y = 0 y=0 y=0时为圆的边, y > 0 y>0 y>0为圆的外面, y < 0 y<0 y<0为圆的里面,这样可以很好的分类样本集。
逻辑斯特回归的损失函数:
线性回归中利用方差的方法不适合,因为逻辑回归的是分类问题,所求得结果是概率,在 [ 0 , 1 ] [0,1] [0,1]之间 导致 h θ ( x ) h_\theta(x) hθ(x)是一个不光滑的曲线(非凸函数,有局部最小点,梯度下降法不能用),此时使用互熵损失:
C o s t ( h θ ( x ) , y ) = { − l o g ( h θ ( x ) ) i f : y = 1 − l o g ( 1 − h θ ( x ) ) i f : y = 0 Cost(h_\theta(x),y)=\left\{ \begin{array}{rcl} -log(h_\theta(x)) &if: &y=1\\ -log(1-h_\theta(x)) &if: &y=0\\ \end{array} \right. Cost(hθ(x),y)={−log(hθ(x))−log(1−hθ(x))if:if:y=1y=0
当 y = 1 y=1 y=1结果是正样本时, x x x越接近1, C o s t Cost Cost函数越小,损失越小:
当 y = 0 y=0 y=0结果是正样本时, x x x越接近0, C o s t Cost Cost函数越小,损失越小:
可得出逻辑斯特回归的损失函数:
J ( θ ) = 1 m ∑ i = 1 m C o s t ( h θ ( x ( i ) ) , y ( i ) ) = − 1 m ∑ i = 1 m [ ( y i l o g h θ ( x ( i ) ) + ( 1 − y i ) l o g ( 1 − h θ ( x ( i ) ) ) ] J(\theta)=\frac{1}{m}\sum_{i=1}^mCost(h_\theta(x^{(i)}),y^{(i)})\\ =-\frac{1}{m}\sum_{i=1}^m[(y^{i}logh_\theta(x^{(i)})+(1-y^{i})log (1-h_\theta(x^{(i)}))] J(θ)=m1i=1∑mCost(hθ(x(i)),y(i))=−m1i=1∑m[(yiloghθ(x(i))+(1−yi)log(1−hθ(x(i)))]
别忘了L2正则化:
J ( θ ) = − 1 m ∑ i = 1 m [ ( y i l o g h θ ( x ( i ) ) + ( 1 − y i ) l o g ( 1 − h θ ( x ( i ) ) ) ] + λ 2 m ∑ i = 1 m θ i 2 J(\theta) =-\frac{1}{m}\sum_{i=1}^m[(y^{i}logh_\theta(x^{(i)})+(1-y^{i})log (1-h_\theta(x^{(i)}))]+\frac{\lambda}{2m}\sum_{i=1}^m\theta_i^2 J(θ)=−m1i=1∑m[(yiloghθ(x(i))+(1−yi)log(1−hθ(x(i)))]+2mλi=1∑mθi2
接下来是梯度下降( J θ ( x ) J_\theta(x) Jθ(x)是一个凸函数,只存在一个最优解)法寻找最优解:
θ i = θ i − α ∂ ∂ θ i J ( θ ) \theta_i=\theta_i-\alpha\frac{\partial}{\partial \theta_i}J(\theta) θi=θi−α∂θi∂J(θ)
多分类问题是可以构建多个分类器,例如:对A和{B,C}分类构建分类器,然后再对B,C构建分类器。
总结与链接
LR(逻辑斯特回归)使用注意:
1.样本量太大时可以:
- 离散化后用one-hot编码处理;
- 连续值注意要用scaling(标准化)
2.样本平衡 - LR对样本敏感,注意噪声样本
- 做上采样(样本多,可以对不均衡样本采样,正多采正)和下采样(图像中对样本丰富,镜像,反转…)
- 改lose function(对不均衡样本权重调节)
这篇关于《机器学习中的数学》——逻辑(斯特)回归的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!