[机器学习必知必会]牛顿法和拟牛顿法

2024-04-16 08:48

本文主要是介绍[机器学习必知必会]牛顿法和拟牛顿法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

同梯度下降法一样,牛顿法和拟牛顿法也是求解无约束最优化问题的常用方法。牛顿法本身属于迭代算法,每一步需要求解目标函数的海赛矩阵的逆矩阵,计算比较复杂。拟牛顿法通过正定矩阵近似海赛矩阵的逆矩阵或海赛矩阵,简化了这一计算过程。

需要提前了解的知识

泰勒展开

f ( x ) f(x) f(x) x = x 0 x=x_0 x=x0处具有 n n n阶连续导数,我们可以用 x − x 0 x-x_0 xx0 n n n次多项式逼近函数

公式:
f ( x ) = f ( x 0 ) 0 ! + f ′ ( x 0 ) 1 ! ( x − x 0 ) + f ′ ′ ( x 0 ) 2 ! ( x − x 0 ) 2 + . . . + f ( n ) ( x 0 ) n ! ( x − x 0 ) n + R n ( x ) f(x) = \frac{f(x_0)}{0!}+\frac{f'(x_0)}{1!}(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n+R^n(x) f(x)=0!f(x0)+1!f(x0)(xx0)+2!f(x0)(xx0)2+...+n!f(n)(x0)(xx0)n+Rn(x)
其中 R n ( x ) R^n(x) Rn(x)表示泰勒余项,它是 ( x − x 0 ) n (x-x_0)^n (xx0)n的高阶无穷小。

海森矩阵

Hessian Matrix,是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率

以二元函数 f ( x 1 , x 2 ) f(x_1,x_2) f(x1,x2)为例,它在 X ( 0 ) ( x 1 ( 0 ) , x 2 ( 0 ) ) X^{(0)}(x_1^{(0)},x_2^{(0)}) X(0)(x1(0),x2(0))点处的泰勒展开式为:
f ( x 1 , x 2 ) = f ( x 1 ( 0 ) , x 2 ( 0 ) ) + ∂ f ∂ x 1 ∣ X ( 0 ) △ x 1 + ∂ f ∂ x 2 ∣ X ( 0 ) △ x 2 + 1 2 [ ∂ 2 f ∂ x 1 2 ∣ X ( 0 ) △ x 1 2 + ∂ 2 f ∂ x 1 ∂ x 2 ∣ X ( 0 ) △ x 1 △ x 2 + ∂ 2 f ∂ x 2 2 ∣ X ( 0 ) △ x 2 2 ] + . . . f(x_1,x_2) = f(x_1^{(0)},x_2^{(0)})+ \frac{\partial{f}}{\partial{x_1}}\Big|_{X^{(0)}} \triangle x_1 + \frac{\partial{f}}{\partial{x_2}}\Big|_{X^{(0)}} \triangle x_2 + \frac{1}{2} \bigg[ \frac{\partial ^2{f}}{\partial{x_1^2}}\Big|_{X^{(0)}} \triangle x_1^2 + \frac{\partial ^2{f}}{\partial{x_1}\partial{x_2}}\Big|_{X^{(0)}} \triangle x_1 \triangle x_2+ \frac{\partial ^2{f}}{\partial{x_2^2}}\Big|_{X^{(0)}} \triangle x_2^2 \bigg]+ ... f(x1,x2)=f(x1(0),x2(0))+x1fX(0)x1+x2fX(0)x2+21[x122fX(0)x12+x1x22fX(0)x1x2+x222fX(0)x22]+...
其中 △ x 1 = x 1 − x 1 ( 0 ) , △ x 2 = x 2 − x 2 ( 0 ) \triangle x_1 = x_1 - x_1^{(0)}, \triangle x_2 = x_2 - x_2^{(0)} x1=x1x1(0),x2=x2x2(0)
改写成矩阵形式:
f ( X ) = f ( X ( 0 ) ) + [ ∂ f ∂ x 1 + ∂ f ∂ x 2 ] ∣ X ( 0 ) ( △ x 1 △ x 2 ) + 1 2 ( △ x 1 , △ x 2 ) ( ∂ 2 f ∂ x 1 2 ∂ 2 f ∂ x 1 ∂ x 2 ∂ 2 f ∂ x 2 ∂ x 1 ∂ 2 f ∂ x 2 2 ) ∣ X ( 0 ) ( △ x 1 △ x 2 ) + . . . f(X) = f(X^{(0)}) +\bigg [\frac{\partial f}{\partial x_1} + \frac{\partial f}{\partial x_2}\bigg ] \bigg|_{X^{(0)}} \begin{pmatrix}\triangle x_1\\ \triangle x_2\end{pmatrix} +\frac{1}{2} (\triangle x_1 , \triangle x_2)\begin{pmatrix}\frac{\partial ^2f}{\partial x_1^2} & \frac{\partial ^2f}{\partial x_1 \partial x_2}\\ \frac{\partial ^2f}{\partial x_2 \partial x_1} & \frac{\partial ^2f}{\partial x_2^2} \end{pmatrix}\bigg|_{X^{(0)}}\begin{pmatrix}\triangle x_1\\ \triangle x_2\end{pmatrix}+ ... f(X)=f(X(0))+[x1f+x2f]X(0)(x1x2)+21(x1,x2)(x122fx2x12fx1x22fx222f)X(0)(x1x2)+...
即:
f ( X ) = f ( X ( 0 ) ) + ▽ f ( X ( 0 ) ) T △ X + 1 2 △ X T H ( X ( 0 ) ) △ X + . . . f(X) = f(X^{(0)}) + \triangledown f(X^{(0)})^T \triangle X + \frac{1}{2} \triangle X^T H(X^{(0)}) \triangle X +... f(X)=f(X(0))+f(X(0))TX+21XTH(X(0))X+...
其中 H ( X ( 0 ) ) H(X^{(0)}) H(X(0))即二元函数 f ( x 1 , x 2 ) f(x_1,x_2) f(x1,x2) X ( 0 ) X^{(0)} X(0)点处的海森矩阵,即二阶偏导数组成的方阵; ▽ f ( X ( 0 ) ) \triangledown f(X^{(0)}) f(X(0))是函数在该点处的梯度。

牛顿法

考虑无约束最优化问题:
min ⁡ x f ( x ) \min_{x}f(x) xminf(x)

首先讨论单自变量情况

假设 f ( x ) f(x) f(x)具有二阶连续导数,运用迭代的思想,我们假设第 k k k次迭代值为 x ( k ) x^{(k)} x(k), 将 f ( x ) f(x) f(x)进行二阶泰勒展开:
f ( x ) = f ( x ( k ) ) + f ′ ( x ( k ) ) ( x − x ( k ) ) + 1 2 f ′ ′ ( x ( k ) ) ( x − x ( k ) ) 2 + R 2 ( x ) f(x)=f(x^{(k)})+f'(x^{(k)})(x-x^{(k)})+\frac{1}{2}f''(x^{(k)})(x-x^{(k)})^2+R_2(x) f(x)=f(x(k))+f(x(k))(xx(k))+21f(x(k))(xx(k))2+R2(x)

其中 R 2 ( x ) R_2(x) R2(x) ( x − x ( k ) ) 2 (x-x^{(k)})^2 (xx(k))2的高阶无穷小,也叫做泰勒余项。

由于二阶可导,函数 f ( x ) f(x) f(x)有极值的必要条件是极值点处一阶导数为0,令 f ′ ( x ) f'(x) f(x)为0解出 x ( k + 1 ) x^{(k+1)} x(k+1)
f ′ ( x ( k ) ) + f ′ ′ ( x ( k ) ) ( x − x ( k ) ) = 0 f'(x^{(k)})+f''(x^{(k)})(x-x^{(k)})=0 f(x(k))+f(x(k))(xx(k))=0
x ( k + 1 ) = x ( k ) − f ′ ( x ( k ) ) f ′ ′ ( x ( k ) ) x^{(k+1)} = x^{(k)} - \frac{f'(x^{(k)})}{f''(x^{(k)})} x(k+1)=x(k)f(x(k))f(x(k))
至此,当数列满足收敛条件时我们可以构造一个初始值 x ( 0 ) x^{(0)} x(0)和上述递推公式得到一个数列 { x ( k ) } \{x^{(k)}\} {x(k)}不停地逼近极小值点

多自变量的情况

按照前面海森矩阵的介绍,在多自变量情况下,二阶泰勒展开式可写为:
f ( X ) = f ( X ( k ) ) + ▽ f ( X ( k ) ) T △ X + 1 2 △ X T H ( X ( k ) ) △ X + . . . f(X) = f(X^{(k)}) + \triangledown f(X^{(k)})^T \triangle X + \frac{1}{2} \triangle X^T H(X^{(k)}) \triangle X + ... f(X)=f(X(k))+f(X(k))TX+21XTH(X(k))X+...
函数 f ( X ) f(X) f(X)极值必要条件要求它必须是 f ( X ) f(X) f(X)的驻点,即:
▽ f ( X ) = 0 \triangledown f(X) = 0 f(X)=0
由于 ▽ f ( X ( k ) ) \triangledown f(X^{(k)}) f(X(k)) H ( X ( k ) ) = ▽ 2 f ( X ( k ) ) H(X^{(k)}) = \triangledown ^2f(X^{(k)}) H(X(k))=2f(X(k))分别表示函数 f ( X ) f(X) f(X)的梯度和海森矩阵取值为 X ( k ) X^{(k)} X(k)的实值向量和实值矩阵,我们分别将其记为 g k g_k gk H k H_k Hk,根据驻点解出 X ( k + 1 ) X^{(k+1)} X(k+1)
g k + H k ( X − X ( k ) ) = 0 g_k + H_k(X-X^{(k)}) = 0 gk+Hk(XX(k))=0
X ( k + 1 ) = X ( k ) − H k − 1 g k X^{(k+1)} = X^{(k)} - H_k^{-1}g_k X(k+1)=X(k)Hk1gk
同样我们可以构造一个迭代数列不停地去逼近函数的最小值点。

拟牛顿法

在牛顿法的迭代过程中,需要计算海森矩阵 H − 1 H^{-1} H1,一方面有计算量大的问题,另一方面当海森矩阵非正定时牛顿法也会失效,因此我们考虑用一个 n n n阶矩阵 G k = G ( X ( k ) ) G_k = G(X^{(k)}) Gk=G(X(k))来近似替代 H k − 1 = H − 1 ( X ( k ) ) H^{-1}_k = H^{-1}(X^{(k)}) Hk1=H1(X(k))

拟牛顿条件

根据前面的迭代式子:
▽ f ( X ) = g k + H k ( X − X ( k ) ) = 0 \triangledown f(X) = g_k + H_k(X-X^{(k)}) = 0 f(X)=gk+Hk(XX(k))=0
X = X ( k + 1 ) X = X^{(k+1)} X=X(k+1), 我们可以得到:
g k + 1 − g k = H k ( X ( k + 1 ) − X ( k ) ) g_{k+1} - g_k = H_k(X^{(k+1)} - X^{(k)}) gk+1gk=Hk(X(k+1)X(k))
y k = g k + 1 − g k y_k = g_{k+1} - g_k yk=gk+1gk, δ k = X ( k + 1 ) − X ( k ) \delta_k = X^{(k+1)} - X^{(k)} δk=X(k+1)X(k),那么可以得到:
y k = H k δ k y_k = H_k \delta_k yk=Hkδk

H k − 1 y k = δ k H_k^{-1} y_k = \delta _k Hk1yk=δk
上述两个式子就是拟牛顿条件。

常见的拟牛顿法

根据拟牛顿条件,我们可以构造不同的 G k G_k Gk,这里仅列出常用的几种拟牛顿法,可根据需要再学习具体实现。

  • DFP算法(Davidon-Fletcher-Powell)
  • BFGS算法(Broydeb-Fletcher-Goldfarb-Shanno)
  • Broyden类算法

Reference

李航的《统计学习方法》

这篇关于[机器学习必知必会]牛顿法和拟牛顿法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/908324

相关文章

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个