本文主要是介绍[UFLDL-1] 监督学习和优化,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
- 线性回归
- 问题简介
- 函数最小化
- 逻辑回归
线性回归
问题简介
http://ufldl.stanford.edu/tutorial/supervised/LinearRegression/
作为一个回顾,我们将学习怎样实现线性回归。主要的目的是学习目标函数,计算它们的梯度并且在参数集上优化。这些基本的工具之后将成为更加复杂算法的基础。读者希望了解更多细节可以参考讲义上面的监督学习。
在线性回归中我们的目标是从输入向量 x∈Rn 中预测目标值 y 。举个例子,我们可能对房子价格做预测,
为了找到使得 y(i)≈h(x(i)) 的函数 h(x) 我们必须决定如何表达函数 h(x) .要开始了,我们使用线性函数 hθ(x)=∑jθjxj=θ⊤x .这里 hθ(x) 表示由 θ 参数化的一个很大的簇函数 (我们把这个函数空间称为“假设类”).通过这样的 h 的表示,我们的任务是找到一个
这个函数是损失函数,我们的问题是度量一个选定的 θ 在预测 y(i) 时导致了多少的误差。这也称为损失,惩罚或者目标函数。
函数最小化
我们现在希望找到一个 θ 使得给定的 J(θ) 最小化。有许多的优化算法来最小化这个函数。我们介绍一些非常有效而且容易自己实现的梯度下降算法。现在,让我理所当然的接受这个事实大多数使用的最小化函数算法都需要我们提供2部分的信息:我们需要用代码计算 J(θ) 和 ∇θJ(θ) .在这之后我们剩下的优化处理就是找到最好的 θ 来处理我们的优化算法(把梯度看作不同的目标函数,在梯度方向上增长最快,所以很容易明白优化算法怎样使用较小的 θ 来减少(或者增加) J(θ) )。
上的 J(θ) 在给定训练集后很容易在matlab上实现。需要计算的梯度是:
微分函数表示如下:
逻辑回归
http://ufldl.stanford.edu/tutorial/supervised/LogisticRegression/
前面我们学习了如何通过输入值的线性函数(比如,房子的大小)来预测连续的数值(比如,房子价格)。有些时候我们希望预测离散的变量例如预测一个灰度值表示的是数字0或者1.这是一个分类问题。逻辑回归是学习做这样决策的简单分类算法。
在线性回归中我们试图使用线性函数 y=hθ(x)=θT(x) 预测第i个样例 x(x) 输出值 y(i) 。这很明显对于一个二分类预测不是一个好的解决方案。在逻辑回归中,我们使用不同的假设类,我们试图预测一个样例属于属于1
的概率与属于0
的概率。特别的,我们试图学习下面的函数:
函数 σ(z)≡11+exp(−z) 经常被称为sigmoid
或者logistic
函数。它是一个S型的函数,压缩 θTx 的值到[0,1],所以我们把 hθ(x) 看作一个概率。我们的目标是搜索一个 θ 值使得x属于类别1的概率 P(y=1|x)=hθ(x) 大于x属于类别0的概率。对于二分类的训练集我们有下面的损失函数:
需要注意的是上面求和的部分只有1个不为0(这取决于标签是否为0)。 当 yi=1 最小化损失函数等价于最大化 hθ(xi) ,当 yi=0 时我们使得 1−hθ 最大 。全面的逻辑回归解释以及损失函数的推导,在CS229监督学习笔记里面。
我们现在有了一个损失函数来度量一个假设到底拟合训练数据到怎样程度。我们可以找到使得 J(θ) 最小的最好的一个 θ 来分类训练数据。一但找到了这样的函数,我们能够对一个新的数据进行分类(0、1):如果 P(y=1|x)>P(y=0|x) 分为类别1,否则类别0.这也等同于检查是否 hθ(x)>0.5
为了最小化 J(θ) 我们使用和线性回归相同的工具。我们需要计算 J(θ) 和 ∇θJ(θ) :
向量表示形式:
这篇关于[UFLDL-1] 监督学习和优化的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!