凸优化学习笔记17:次梯度下降法

2023-10-31 04:40

本文主要是介绍凸优化学习笔记17:次梯度下降法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

对于光滑函数,我们可以用梯度下降法,并且证明了取不同的步长,可以得到次线性收敛,如果加上强凸性质,还可以得到线性收敛速度。那如果现在对于不可导的函数,我们就只能沿着次梯度下降,同样会面临步长的选择、方向的选择、收敛性分析等问题。

1. 收敛性分析

次梯度下降的一般形式为
x ( k ) = x ( k − 1 ) − t k g ( k − 1 ) , k = 1 , 2 , … g ∈ ∂ f ( x ( k − 1 ) ) x^{(k)}=x^{(k-1)}-t_{k} g^{(k-1)}, \quad k=1,2, \ldots \quad g\in\partial f(x^{(k-1)}) x(k)=x(k1)tkg(k1),k=1,2,gf(x(k1))
一般有 3 种步长的选择方式:

  1. fix step: t k t_k tk 为常数
  2. fix length: t k ∥ g ( k − 1 ) ∥ 2 = ∥ x ( k ) − x ( k − 1 ) ∥ 2 t_{k}\left\|g^{(k-1)}\right\|_{2}=\left\|x^{(k)}-x^{(k-1)}\right\|_{2} tkg(k1)2=x(k)x(k1)2 为常数
  3. diminishing: t k → 0 , ∑ k = 1 ∞ t k = ∞ t_{k} \rightarrow 0, \sum_{k=1}^{\infty} t_{k}=\infty tk0,k=1tk=

要证明这几种方法的收敛性,需要先引入 Lipschitz continuous 假设,即
∣ f ( x ) − f ( y ) ∣ ≤ G ∥ x − y ∥ 2 ∀ x , y |f(x)-f(y)| \leq G\|x-y\|_{2} \quad \forall x, y f(x)f(y)Gxy2x,y
这等价于 ∥ g ∥ 2 ≤ G \Vert g\Vert_2\le G g2G 对任意 g ∈ ∂ f ( x ) g\in\partial f(x) gf(x) 都成立。

在分析收敛性之前,我们需要引入一个非常重要的式子⬇️!!!在后面的分析中会一直用到:
∥ x + − x ⋆ ∥ 2 2 = ∥ x − t g − x ⋆ ∥ 2 2 = ∥ x − x ⋆ ∥ 2 2 − 2 t g T ( x − x ⋆ ) + t 2 ∥ g ∥ 2 2 ≤ ∥ x − x ⋆ ∥ 2 2 − 2 t ( f ( x ) − f ⋆ ) + t 2 ∥ g ∥ 2 2 \begin{aligned} \left\|x^{+}-x^{\star}\right\|_{2}^{2} &=\left\|x-t g-x^{\star}\right\|_{2}^{2} \\ &=\left\|x-x^{\star}\right\|_{2}^{2}-2 t g^{T}\left(x-x^{\star}\right)+t^{2}\|g\|_{2}^{2} \\ & \leq\left\|x-x^{\star}\right\|_{2}^{2}-2 t\left(f(x)-f^{\star}\right)+t^{2}\|g\|_{2}^{2} \end{aligned} x+x22=xtgx22=xx222tgT(xx)+t2g22xx222t(f(x)f)+t2g22
那么如果定义 f b e s t ( k ) = min ⁡ 0 ≤ i < k f ( x ( i ) ) f_{\mathrm{best}}^{(k)}=\min _{0 \leq i<k} f\left(x^{(i)}\right) fbest(k)=min0i<kf(x(i)),就有
2 ( ∑ i = 1 k t i ) ( f best  ( k ) − f ⋆ ) ≤ ∥ x ( 0 ) − x ⋆ ∥ 2 2 − ∥ x ( k ) − x ⋆ ∥ 2 2 + ∑ i = 1 k t i 2 ∥ g ( i − 1 ) ∥ 2 2 ≤ ∥ x ( 0 ) − x ⋆ ∥ 2 2 + ∑ i = 1 k t i 2 ∥ g ( i − 1 ) ∥ 2 2 \begin{aligned} 2\left(\sum_{i=1}^{k} t_{i}\right)\left(f_{\text {best }}^{(k)}-f^{\star}\right) & \leq\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}-\left\|x^{(k)}-x^{\star}\right\|_{2}^{2}+\sum_{i=1}^{k} t_{i}^{2}\left\|g^{(i-1)}\right\|_{2}^{2} \\ & \leq\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}+\sum_{i=1}^{k} t_{i}^{2}\left\|g^{(i-1)}\right\|_{2}^{2} \end{aligned} 2(i=1kti)(fbest (k)f)x(0)x22x(k)x22+i=1kti2g(i1)22x(0)x22+i=1kti2g(i1)22
根据上面的式子,就可以得到对于

Fixed step size t i = t t_i=t ti=t
f best  ( k ) − f ⋆ ≤ ∥ x ( 0 ) − x ⋆ ∥ 2 2 2 k t + G 2 t 2 f_{\text {best }}^{(k)}-f^{\star} \leq \frac{\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}}{2 k t}+\frac{G^{2} t}{2} fbest (k)f2ktx(0)x22+2G2t
Fixed step length t i = s / ∥ g ( i − 1 ) ∥ 2 t_{i}=s /\left\|g^{(i-1)}\right\|_{2} ti=s/g(i1)2
f best  ( k ) − f ⋆ ≤ G ∥ x ( 0 ) − x ⋆ ∥ 2 2 2 k s + G s 2 f_{\text {best }}^{(k)}-f^{\star} \leq \frac{G\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}}{2 k s}+\frac{G s}{2} fbest (k)f2ksGx(0)x22+2Gs
这两个式子中的第一项都随着 k k k 增大而趋于 0,但第二项却没有办法消掉,也就是与最优解的误差不会趋于 0。并且他们有一个微妙的不同点在于,fixed step size 情况下 G 2 t / 2 ∼ O ( G 2 ) , G s / 2 ∼ O ( G ) G^2t/2\sim O(G^2),Gs/2\sim O(G) G2t/2O(G2),Gs/2O(G) G G G 一般是较大的。

Diminishing step size t k → 0 , ∑ k = 1 ∞ t k = ∞ t_{k} \rightarrow 0, \sum_{k=1}^{\infty} t_{k}=\infty tk0,k=1tk=
f best  ( k ) − f ⋆ ≤ ∥ x ( 0 ) − x ⋆ ∥ 2 2 + G 2 ∑ i = 1 k t i 2 2 ∑ i = 1 k t i f_{\text {best }}^{(k)}-f^{\star} \leq \frac{\left\|x^{(0)}-x^{\star}\right\|_{2}^{2}+G^{2} \sum_{i=1}^{k} t_{i}^{2}}{2 \sum_{i=1}^{k} t_{i}} fbest (k)f2i=1ktix(0)x22+G2i=1kti2
可以证明, ( ∑ i = 1 k t i 2 ) / ( ∑ i = 1 k t i ) → 0 \left(\sum_{i=1}^{k} t_{i}^{2}\right) /\left(\sum_{i=1}^{k} t_{i}\right) \rightarrow 0 (i=1kti2)/(i=1kti)0,因此 f best  ( k ) f_{\text {best }}^{(k)} fbest (k) 会收敛于 f ⋆ f^\star f

下面看几幅图片,对于优化问题 min ⁡ ∥ A x − b ∥ 1 \min\Vert Ax-b\Vert_1 minAxb1

Fixed step lengthDiminishing step size
fixed-stepdiminishing

前面考虑了固定步长的情况,假设现在我们固定总的迭代次数为 k k k,可不可以优化步长 s s s 的大小来尽可能使 f best ( k ) f_\text{best}^{(k)} fbest(k) 接近 f ⋆ f^\star f 呢?这实际上可以表示为优化问题
f best  ( k ) − f ⋆ ≤ R 2 + ∑ i = 1 k s i 2 2 ∑ i = 1 k s i / G ⟹ min ⁡ s R 2 2 k s / G + s 2 / G f_{\text {best }}^{(k)}-f^{\star} \leq \frac{R^{2}+\sum_{i=1}^{k} s_{i}^{2}}{2 \sum_{i=1}^{k} s_{i}/G} \Longrightarrow \min_s \frac{R^{2}}{2 ks/G}+\frac{s}{2/G} fbest (k)f2i=1ksi/GR2+i=1ksi2smin2ks/GR2+2/Gs
其中 R = ∥ x ( 0 ) − x ⋆ ∥ 2 R=\left\|x^{(0)}-x^{\star}\right\|_{2} R=x(0)x2,那么最优步长为 s = R / k s=R/\sqrt{k} s=R/k ,此时
f best  ( k ) − f ⋆ ≤ G R k f_{\text {best }}^{(k)}-f^{\star} \leq \frac{GR}{\sqrt{k}} fbest (k)fk GR
因此收敛速度为 O ( 1 / k ) O(1/\sqrt{k}) O(1/k ),对比之前光滑函数的梯度下降,收敛速度为 O ( 1 / k ) O(1/k) O(1/k)

我们对前面的收敛速度并不满意,如果有更多的信息,比如已知最优解 f ⋆ f^\star f 的大小,能不能改进收敛速度呢?根据前面的式子,有
∥ x + − x ⋆ ∥ 2 2 ≤ ∥ x − x ⋆ ∥ 2 2 − 2 t i ( f ( x ) − f ⋆ ) + t i 2 ∥ g ∥ 2 2 \left\|x^{+}-x^{\star}\right\|_{2}^{2} \leq\left\|x-x^{\star}\right\|_{2}^{2}-2 t_i\left(f(x)-f^{\star}\right)+t_i^{2}\|g\|_{2}^{2} x+x22xx222ti(f(x)f)+ti2g22
这实际上是关于 t i t_i ti 的一个二次函数,因此可以取 t i = f ( x ( i − 1 ) ) − f ⋆ ∥ g ( i − 1 ) ∥ 2 2 t_{i}=\frac{f\left(x^{(i-1)}\right)-f^{\star}}{\left\|g^{(i-1)}\right\|_{2}^{2}} ti=g(i1)22f(x(i1))f,就可以得到
f best  ( k ) − f ⋆ ≤ G R k f_{\text {best }}^{(k)}-f^{\star} \leq \frac{GR}{\sqrt{k}} fbest (k)fk GR
可见还是没有改进收敛速度。

如果引入强凸性质呢?如果假设满足 μ \mu μ 强凸,则 f ⋆ ≥ f k + g k T ( x k − x ⋆ ) + μ / 2 ∥ x k − x ⋆ ∥ 2 2 f^\star \ge f^k+g^{kT}(x^k-x^\star)+\mu/2\Vert x^k-x^\star\Vert_2^2 ffk+gkT(xkx)+μ/2xkx22,可以取 t k = 2 μ ( k + 1 ) t_k=\frac{2}{\mu(k+1)} tk=μ(k+1)2,那么就可以得到
f best  ( k ) − f ⋆ ≤ 2 G 2 μ ( k + 1 ) f_{\text {best }}^{(k)}-f^{\star} \leq \frac{2G^2}{\mu(k+1)} fbest (k)fμ(k+1)2G2

最后给我的博客打个广告,欢迎光临
https://glooow1024.github.io/
https://glooow.gitee.io/

前面的一些博客链接如下
凸优化专栏
凸优化学习笔记 1:Convex Sets
凸优化学习笔记 2:超平面分离定理
凸优化学习笔记 3:广义不等式
凸优化学习笔记 4:Convex Function
凸优化学习笔记 5:保凸变换
凸优化学习笔记 6:共轭函数
凸优化学习笔记 7:拟凸函数 Quasiconvex Function
凸优化学习笔记 8:对数凸函数
凸优化学习笔记 9:广义凸函数
凸优化学习笔记 10:凸优化问题
凸优化学习笔记 11:对偶原理
凸优化学习笔记 12:KKT条件
凸优化学习笔记 13:KKT条件 & 互补性条件 & 强对偶性
凸优化学习笔记 14:SDP Representablity
凸优化学习笔记 15:梯度方法
凸优化学习笔记 16:次梯度
凸优化学习笔记 17:次梯度下降法

这篇关于凸优化学习笔记17:次梯度下降法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/312890

相关文章

Vue3 的 shallowRef 和 shallowReactive:优化性能

大家对 Vue3 的 ref 和 reactive 都很熟悉,那么对 shallowRef 和 shallowReactive 是否了解呢? 在编程和数据结构中,“shallow”(浅层)通常指对数据结构的最外层进行操作,而不递归地处理其内部或嵌套的数据。这种处理方式关注的是数据结构的第一层属性或元素,而忽略更深层次的嵌套内容。 1. 浅层与深层的对比 1.1 浅层(Shallow) 定义

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

MySQL高性能优化规范

前言:      笔者最近上班途中突然想丰富下自己的数据库优化技能。于是在查阅了多篇文章后,总结出了这篇! 数据库命令规范 所有数据库对象名称必须使用小写字母并用下划线分割 所有数据库对象名称禁止使用mysql保留关键字(如果表名中包含关键字查询时,需要将其用单引号括起来) 数据库对象的命名要能做到见名识意,并且最后不要超过32个字符 临时库表必须以tmp_为前缀并以日期为后缀,备份

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss