Understanding Diffusion Objectives as the ELBO with Simple Data Augmentation

本文主要是介绍Understanding Diffusion Objectives as the ELBO with Simple Data Augmentation,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Understanding Diffusion Objectives as the ELBO with Simple Data Augmentation

引言

本文前作 VDM 已经推导出了扩散模型可以将优化 ELBO 作为目标函数。然而现在 FID (也就是感知质量)最好的模型还是用的其他目标函数(如 DDPM 的噪声预测和 Score-base Model 的得分匹配),本文证明了这些其他目标函数实际上也与 ELBO 相关。具体来说,本文证明了所有这些其他的扩散模型目标函数都可以写为 ELBO 在所有噪声等级上的加权积分,不同的目标函数决定了不同的加权函数。如果这个加权函数是单调的(许多扩散模型目标函数都满足这一点),本文进一步证明了不同的目标函数等价于 ELBO 目标搭配上简单的数据扩增(加性高斯噪声)。

方法

记真实数据分布为 q ( x ) q(\mathbf{x}) q(x) ,生成模型要做的事情是学习一个参数化分布 p θ ( x ) p_\theta(\mathbf{x}) pθ(x) 来近似 q ( x ) q(\mathbf{x}) q(x) ,以下简记 p : = p θ p:=p_\theta p:=pθ

除了观测变量 x \mathbf{x} x,扩散模型中还有一系列隐变量 z t , t ∈ [ 0 , 1 ] \mathbf{z}_t,\ t\in[0,1] zt, t[0,1] ,可记为 z 0 , … , 1 : = z 0 , … , z 1 \mathbf{z}_{0,\dots,1}:=\mathbf{z}_0,\dots,\mathbf{z}_1 z0,,1:=z0,,z1。扩散生成模型包含两部分:1)前向过程,表示为一个条件联合分布 q ( z 0 , … , 1 ∣ x ) q(\mathbf{z}_{0,\dots,1}|\mathbf{x}) q(z0,,1x);2)参数化生成模型,表示为一个联合分布 p ( z 0 , … , 1 ) p(\mathbf{z}_{0,\dots,1}) p(z0,,1)

前向过程和 noise schedule

前向过程是一个高斯扩散过程,表示为一个条件联合分布 q ( z 0 , . . . , 1 ∣ x ) q(\mathbf{z}_{0,...,1}|\mathbf{x}) q(z0,...,1x)。对于每个 t ∈ [ 0 , 1 ] t \in[0, 1] t[0,1],边缘分布 q ( z t ∣ x ) q(\mathbf{z}_t|\mathbf{x}) q(ztx) 由以下公式给出:
z t = α λ x + σ λ ϵ , ϵ ∼ N ( 0 , I ) \mathbf{z}_t=\alpha_\lambda\mathbf{x}+\sigma_\lambda\epsilon,\ \ \ \epsilon\sim\mathcal{N}(0,\mathbf{I}) zt=αλx+σλϵ,   ϵN(0,I)
可以看到,扩散模型前向过程的 “规格” 由 α λ , σ λ \alpha_\lambda,\sigma_\lambda αλ,σλ 两组参数确定。如果是常用的 variance preserving 的前向过程,有 α λ 2 = sigmoid ( λ t ) \alpha^2_\lambda=\text{sigmoid}(\lambda_t) αλ2=sigmoid(λt) σ λ 2 = sigmoid ( − λ t ) \sigma^2_\lambda=\text{sigmoid}(-\lambda_t) σλ2=sigmoid(λt) 。但也有很多其他的扩散模型规格,本文的研究对于不同规格的扩散模型均成立。

定义时间步 t t t 的对数信噪比(log signal to noise ratio, log SNR)为 λ = log ⁡ ( α t 2 / σ t 2 ) \lambda=\log(\alpha_t^2/\sigma_t^2) λ=log(αt2/σt2) 。noise schedule f λ f_\lambda fλ 是一个将时间步 t ∈ [ 0 , 1 ] t\in[0,1] t[0,1] 映射为对应的 log SNR λ \lambda λ 的函数,即有 λ = f λ ( t ) \lambda=f_\lambda(t) λ=fλ(t) f λ f_\lambda fλ 是严格单调递减的。log SNR λ \lambda λ 是一个关于 t t t 的函数,因此有时会将 log SNR 记为 λ t \lambda_t λt。noise schedule 的两端点为 λ max : = f λ ( 0 ) \lambda_\text{max}:=f_\lambda(0) λmax:=fλ(0) λ min : = f λ ( 1 ) \lambda_\text{min}:=f_\lambda(1) λmin:=fλ(1)。由于 f λ f_\lambda fλ 的单调性,因此其也是可逆的,有 t = f λ − 1 ( λ ) t=f^{-1}_\lambda(\lambda) t=fλ1(λ)。进一步基于这种双射,我们可以进行变量变换,一个关于 t t t 的函数可以改写为关于 λ \lambda λ 的函数,反之亦然。在接下来的研究中会用到这一点。

在这里插入图片描述

上图左侧展示了一些常见的 noise schedule。在训练阶段,我们均匀地采样时间 t t t t ∼ U ( 0 , 1 ) t\sim\mathcal{U}(0,1) tU(0,1) ,然后计算 λ = f λ ( t ) \lambda=f_\lambda(t) λ=fλ(t) 。进一步可以推导出噪声等级的分布 p ( λ ) = − d t / d λ = − 1 / f λ ′ ( t ) p(\lambda)=-dt/d\lambda=-1/f'_\lambda(t) p(λ)=dt/dλ=1/fλ(t) 。绘制在上图右侧。

有时在采样时使用与训练时不同的 noise schedule 会更好。在采样过程中,密度函数 p ( λ ) p(\lambda) p(λ) 表示采样器在不同噪声水平上花费的相对时间量。

生成模型

真实数据 x ∼ D \mathbf{x}\sim \mathcal{D} xD ,其分布密度为 q ( x ) q(\mathbf{x}) q(x) 。刚才介绍前向过程定义了一个联合分布 q ( z 0 , … , z 1 ) = ∫ ( q ( z 0 , … , 1 ) ∣ x ) ) d x q(\mathbf{z}_0,\dots,\mathbf{z}_1)=\int(q(\mathbf{z}_{0,\dots,1})|\mathbf{x}))d\mathbf{x} q(z0,,z1)=(q(z0,,1)x))dx ,记边缘分布 q t ( z ) = q ( z t ) q_t(\mathbf{z})=q(\mathbf{z}_t) qt(z)=q(zt) 。生成模型则定义了一个对应的隐变量的联合分布 p ( z 0 , … , z 1 ) p(\mathbf{z}_0,\dots,\mathbf{z}_1) p(z0,,z1)

在扩散模型中, λ max \lambda_\text{max} λmax 足够大, z 0 \mathbf{z}_0 z0 与数据 x \mathbf{x} x 几乎相等,所以学习 p ( z 0 ) p(\mathbf{z}_0) p(z0) 等价于学习 p ( x ) p(\mathbf{x}) p(x) λ min \lambda_\text{min} λmin 足够小, z 1 \mathbf{z}_1 z1 中几乎没有与 x \mathbf{x} x 有关的信息,从而分布 p ( z 1 ) p(\mathbf{z}_1) p(z1) 满足 D K L ( q ( z 1 ∣ x ) ∣ ∣ p ( z 1 ) ) ≈ 0 D_{KL}(q(\mathbf{z}_1|\mathbf{x})||p(\mathbf{z}_1))\approx 0 DKL(q(z1x)∣∣p(z1))0 。 因此一般有 p ( z 1 ) = N ( 0 , I ) p(\mathbf{z}_1)=\mathcal{N}(0,\mathbf{I}) p(z1)=N(0,I)

s θ ( z ; λ ) \mathbf{s}_\theta(\mathbf{z};\lambda) sθ(z;λ) 为得分模型(score model),我们用该模型来估计得分 ∇ z log ⁡ q t ( z ) \nabla_\mathbf{z}\log q_t(\mathbf{z}) zlogqt(z) ,具体训练目标我们在下一节介绍。如果模型训练得足够好,可以完美完成估计任务,即有 s θ ( z ; λ ) = ∇ z log ⁡ q t ( z ) \mathbf{s}_\theta(\mathbf{z};\lambda)=\nabla_\mathbf{z}\log q_t(\mathbf{z}) sθ(z;λ)=zlogqt(z) ,那么生成模型就可以完全地反转(reverse)前向过程,生成新的数据。

如果有 D K L ( q ( z 1 ) ∣ ∣ p ( z 1 ) ) ≈ 0 D_{KL}(q(\mathbf{z}_1)||p(\mathbf{z}_1))\approx 0 DKL(q(z1)∣∣p(z1))0 s θ ( z ; λ ) ≈ ∇ z log ⁡ q t ( z ) \mathbf{s}_\theta(\mathbf{z};\lambda)\approx\nabla_\mathbf{z}\log q_t(\mathbf{z}) sθ(z;λ)zlogqt(z) ,我们就有一个好的生成模型能够做到 D K L ( q ( z 0 , … , 1 ) ∣ ∣ p ( z 0 , … , 1 ) ) ≈ 0 D_{KL}(q(\mathbf{z}_{0,\dots,1})||p(\mathbf{z}_{0,\dots,1}))\approx 0 DKL(q(z0,,1)∣∣p(z0,,1))0 ,从而就能实现我们的最终目标 ,拟合出真实数据分布,即 D K L ( q ( z 0 ) ∣ ∣ p ( z 0 ) ) ≈ 0 D_{KL}(q(\mathbf{z}_0)||p(\mathbf{z}_0))\approx 0 DKL(q(z0)∣∣p(z0))0 。因此,我们生成式建模的任务就转换为学习一个网络 s θ ( z ; λ ) \mathbf{s}_\theta(\mathbf{z};\lambda) sθ(z;λ) 来拟合得分 ∇ z log ⁡ q t ( z ) \nabla_\mathbf{z}\log q_t(\mathbf{z}) zlogqt(z)

采样时,我们首先采样一个 z 1 ∼ p ( z 1 ) \mathbf{z}_1\sim p(\mathbf{z}_1) z1p(z1) ,然后使用估计的 s θ ( z ; λ ) \mathbf{s}_\theta(\mathbf{z};\lambda) sθ(z;λ) 来(近似)解反向 SDE。最近的扩散模型使用了越来越复杂的方法来解反向 SDE,本文实验中采用了 DDPM 的采样器和 Karras 等人提出的 Heun 二阶采样器。

不同的扩散模型训练目标

去噪得分匹配

Song 等人提出一种去噪得分匹配(denoising score matching)的方式来训练 s θ \mathbf{s}_\theta sθ 估计得分 ∇ z log ⁡ q t ( z ) \nabla_\mathbf{z}\log q_t(\mathbf{z}) zlogqt(z)
L DSM = E t ∼ U ( 0 , 1 ) , ϵ ∼ N ( 0 , I ) [ w ~ ( t ) ⋅ ∣ ∣ s θ ( z t ; λ t ) − ∇ z t log ⁡ q ( z t ∣ x ) ∣ ∣ 2 2 ] \mathcal{L}_{\text{DSM}}=\mathbb{E}_{t\sim\mathcal{U}(0,1),\epsilon\sim\mathcal{N}(0,\mathbf{I})}[\textcolor{brown}{\tilde{w}(t)}\cdot||\textcolor{red}{\mathbf{s}_\theta(\mathbf{z}_t;\lambda_t)}-\textcolor{purple}{\nabla_{\mathbf{z}_t}\log q(\mathbf{z}_t|\mathbf{x})}||^2_2] LDSM=EtU(0,1),ϵN(0,I)[w~(t)∣∣sθ(zt;λt)ztlogq(ztx)22]
其中 z t = α λ x + σ λ ϵ \mathbf{z}_t=\alpha_\lambda\mathbf{x}+\sigma_\lambda\epsilon zt=αλx+σλϵ

ϵ \epsilon ϵ-prediction 训练目标

大多数扩散模型的训练目标时 DDPM 中提出的噪声预测损失。这种情形下,得分模型一般被参数化为一个噪声预测(noise prediction, ϵ \epsilon ϵ-prediction)网络: s θ ( z ; λ ) = − ϵ ^ θ ( z ; λ ) / σ λ \mathbf{s}_\theta(\mathbf{z};\lambda)=-\hat{\epsilon}_\theta(\mathbf{z};\lambda)/\sigma_\lambda sθ(z;λ)=ϵ^θ(z;λ)/σλ 。噪声预测损失可表示为:
L ϵ ( x ) = 1 2 E t ∼ U ( 0 , 1 ) , ϵ ∼ N ( 0 , I ) [ ∣ ∣ ϵ ^ θ ( z t ; λ t ) − ϵ ∣ ∣ 2 2 ] \mathcal{L}_\epsilon(\mathbf{x})=\frac{1}{2}\mathbb{E}_{t\sim\mathcal{U}(0,1),\epsilon\sim\mathcal{N}(0,\mathbf{I})}[||\textcolor{red}{\hat{\epsilon}_\theta(\mathbf{z}_t;\lambda_t)-\textcolor{purple}{\epsilon}}||_2^2] Lϵ(x)=21EtU(0,1),ϵN(0,I)[∣∣ϵ^θ(zt;λt)ϵ22]

由于有 ∣ ∣ s θ ( z t ; λ t ) − ∇ z t log ⁡ q ( z t ∣ x ) ∣ ∣ 2 2 = σ λ − 2 ∣ ∣ ϵ ^ θ ( z t ; λ t ) − ϵ ∣ ∣ 2 2 ||\mathbf{s}_\theta(\mathbf{z}_t;\lambda_t)-\nabla_{\mathbf{z}_t}\log q(\mathbf{z}_t|\mathbf{x})||^2_2=\sigma_\lambda^{-2}||\hat{\epsilon}_\theta(\mathbf{z}_t;\lambda_t)-\epsilon||^2_2 ∣∣sθ(zt;λt)ztlogq(ztx)22=σλ2∣∣ϵ^θ(zt;λt)ϵ22 ,所以这其实可以看作是去噪得分匹配目标函数在 w ~ ( t ) = σ λ 2 \tilde{w}(t)=\sigma_\lambda^2 w~(t)=σλ2 时的一种特殊情况。DDPM 中的实验结果显示,噪声预测这种目标函数训练出的模型可以产生非常高质量的生成结果,iDDPM 中将 noise schedule λ t \lambda_t λt 从线性换成了余弦,进一步提高了生成结果的质量。如今噪声预测损失+余弦 noise schedule 的扩散模型应用非常广泛。

与噪声预测目标 ϵ \epsilon ϵ-prediction 类似的,还有 x \mathbf{x} x-prediction、 v \mathbf{v} v-prediction、 o \mathbf{o} o-prediction、 F \mathbf{F} F-prediction 等形式。

ELBO 训练目标

本文前作 VDM 中提出了连续时间情形下的扩散模型的 ELBO 优化目标:
− ELBO ( x ) = 1 2 E t ∼ U ( 0 , 1 ) , ϵ ∼ N ( 0 , I ) [ − d λ d t ∣ ∣ ϵ ^ θ ( z t ; λ t ) − ϵ ∣ ∣ 2 2 ] + c -\text{ELBO}(\mathbf{x})=\frac{1}{2}\mathbb{E}_{t\sim\mathcal{U}(0,1),\epsilon\sim\mathcal{N}(0,\mathbf{I})}[-\textcolor{brown}{\frac{d\lambda}{dt}}||\textcolor{red}{\hat{\epsilon}_\theta(\mathbf{z}_t;\lambda_t)-\textcolor{purple}{\epsilon}}||_2^2]+c ELBO(x)=21EtU(0,1),ϵN(0,I)[dtdλ∣∣ϵ^θ(zt;λt)ϵ22]+c
其中 c c c 是与网络参数 θ \theta θ 无关的常数。

加权损失

上述讨论的各种目标函数,其实都可以看作是 VDM 中的加权损失选择不同加权函数 w ( λ t ) w(\lambda_t) w(λt) 的某种特殊情况。一般地,有:
L w ( x ) = 1 2 E t ∼ U ( 0 , 1 ) , ϵ ∼ N ( 0 , I ) [ w ( λ t ) ⋅ − d λ d t ∣ ∣ ϵ ^ θ ( z t ; λ t ) − ϵ ∣ ∣ 2 2 ] + c \mathcal{L}_w(\mathbf{x})=\frac{1}{2}\mathbb{E}_{t\sim\mathcal{U}(0,1),\epsilon\sim\mathcal{N}(0,\mathbf{I})}[\textcolor{green}{w(\lambda_t)}\cdot-\textcolor{brown}{\frac{d\lambda}{dt}}||\textcolor{red}{\hat{\epsilon}_\theta(\mathbf{z}_t;\lambda_t)-\textcolor{purple}{\epsilon}}||_2^2]+c Lw(x)=21EtU(0,1),ϵN(0,I)[w(λt)dtdλ∣∣ϵ^θ(zt;λt)ϵ22]+c
显然 ELBO 目标是上式在未进行加权,即 w ( λ t ) = 1 w(\lambda_t)=1 w(λt)=1 时的情况;而噪声预测目标则是在 w ( λ t ) = − d t / d λ w(\lambda_t)=-dt/d\lambda w(λt)=dt/dλ 时的情况,或者更简洁地 w ( λ t ) = p ( λ t ) w(\lambda_t)=p(\lambda_t) w(λt)=p(λt),训练时噪声水平 λ \lambda λ 的隐含分布的 PDF。下面的图表展示了推导出的其他常用的扩散模型的隐式加权函数 w ( λ ) w(\lambda) w(λ) 及其曲线。

在这里插入图片描述

在这里插入图片描述

加权损失关于 noise shedule 的不变性

VDM 中已经证明了 ELBO 目标函数关于 noise schedule (除开两端点 λ max , λ min \lambda_\text{max},\lambda_\text{min} λmax,λmin 外)的不变性。这个结论在本文中进一步泛化到所有的加权扩散损失(上式)中。根据变量变换,将变量 t t t 变换为 λ \lambda λ ,有:
KaTeX parse error: Got function '\textcolor' with no arguments as subscript at position 44: …frac{1}{2}\int_\̲t̲e̲x̲t̲c̲o̲l̲o̲r̲{brown}{\lambda…
可以看到,上式这个积分(除了 λ max , λ min \lambda_\text{max},\lambda_\text{min} λmax,λmin 之外)与 f λ f_\lambda fλ (从 t t t λ \lambda λ 的映射)无关。即,扩散损失不会受到 f λ f_\lambda fλ 两端点 λ min \lambda_\text{min} λmin λ max \lambda_\text{max} λmax 之间的函数形状的影响,而只会受到加权函数 w ( λ ) w(\lambda) w(λ) 的影响。也就是说,给定一个加权函数 w ( λ ) w(\lambda) w(λ) 之后,扩散损失是确定的,与 t = 0 t=0 t=0 t = 1 t=1 t=1 之间的 noise shedule λ t \lambda_t λt 无关的。从而我们有一个重要结论:不同扩散模型目标函数之间真正的区别,只在加权函数 w ( λ ) w(\lambda) w(λ)

当然,这种不变性对于训练时使用的,基于随机样本 t ∼ U ( 0 , 1 ) , ϵ ∼ N ( 0 , I ) t\sim\mathcal{U}(0,1),\epsilon\sim\mathcal{N}(0,\mathbf{I}) tU(0,1),ϵN(0,I) 的蒙特卡洛估计器是不成立的。noise schedule 仍然会影响估计器的方差和梯度,从而会影响训练的效率。具体来说,noise schedule 可以看做是估计上述损失的一个重要性采样分布。结合 p ( λ ) = − 1 ( d λ / d t ) p(\lambda)=-1(d\lambda/dt) p(λ)=1(dλ/dt),我们可以将上式改写为:
L w ( x ) = 1 2 E λ ∼ p ( λ ) , ϵ ∼ N ( 0 , I ) [ w ( λ ) p ( λ ) ∣ ∣ ϵ ^ θ ( z λ ; λ ) − ϵ ∣ ∣ 2 2 ] \mathcal{L}_w(\mathbf{x})=\frac{1}{2}\mathbb{E}_{\lambda\sim p(\lambda),\epsilon\sim\mathcal{N}(0,\mathbf{I})}[\frac{\textcolor{green}{w(\lambda)}}{\textcolor{brown}{p(\lambda)}}||\textcolor{red}{\hat{\epsilon}_\theta(\mathbf{z}_\lambda;\lambda)}-\textcolor{purple}{\epsilon}||_2^2] Lw(x)=21Eλp(λ),ϵN(0,I)[p(λ)w(λ)∣∣ϵ^θ(zλ;λ)ϵ22]
从上式中可以清楚地看到 p ( λ ) p(\lambda) p(λ) 作为重要性采样分布的角色。基于上述讨论的 noise schedule 特性,本文提出了一种自适应的 noise schedule,通过降低估计器的方差,有效提高了训练效率。

将加权损失看作是带数据扩增的 ELBO

结论:如果加权函数 w ( λ t ) w(\lambda_t) w(λt) 是单调的,那么加权扩散目标函数等价于带数据扩增(加性高斯噪声)的 ELBO。

这里 w ( λ t ) w(\lambda_t) w(λt) 是单调的,指的是其关于时间 t t t 是单调递增的,从而其关于 λ \lambda λ 是单调递减的。这在现如今很多扩散模型中都是成立的。

以下使用 L ( t , x ) \mathcal{L}_(t,\mathbf{x}) L(t,x) 来简记前向过程联合分布 q ( z 0 , … , 1 ∣ x ) q(\mathbf{z}_{0,\dots,1}|\mathbf{x}) q(z0,,1x) 与反向过程对于时间步子集从 t t t 到 1 下的生成模型 p ( z t , … , 1 ) p(\mathbf{z}_{t,\dots,1}) p(zt,,1) 的 KL 散度,即:
L ( t , x ) : = D K L ( q ( z t , … , 1 ∣ x ) ∣ ∣ p ( z t , … , 1 ) ) \mathcal{L}(t,\mathbf{x}):=D_{KL}(q(\mathbf{z}_{t,\dots,1}|\mathbf{x})||p(\mathbf{z}_{t,\dots,1})) L(t,x):=DKL(q(zt,,1x)∣∣p(zt,,1))
可以证明,有:
d d t L ( t ; x ) = 1 2 d λ d t E ϵ ∼ N ( 0 , I ) [ ∣ ∣ ϵ − ϵ θ ( z λ ; λ ) ∣ ∣ 2 2 ] \textcolor{blue}{\frac{d}{dt}\mathcal{L}(t;\mathbf{x})}=\textcolor{red}{\frac{1}{2}\frac{d\lambda}{dt}\mathbb{E}_{\epsilon\sim\mathcal{N}(0,\mathbf{I})}[||\epsilon-\epsilon_\theta(\mathbf{z}_\lambda;\lambda)||_2^2]} dtdL(t;x)=21dtdλEϵN(0,I)[∣∣ϵϵθ(zλ;λ)22]

从而,可以将加权损失重写为:
L w ( x ) = − ∫ 0 1 d d t L ( t ; x ) w ( λ t ) d t \mathcal{L}_w(\mathbf{x})=-\int_0^1\textcolor{blue}{\frac{d}{dt}\mathcal{L}(t;\mathbf{x})}\textcolor{green}{w(\lambda_t)}dt Lw(x)=01dtdL(t;x)w(λt)dt
再通过分部积分,可写为:
L w ( x ) = ∫ 0 1 d d t w ( λ t ) L ( t ; x ) + w ( λ max ) L ( 0 ; x ) + constant \mathcal{L}_w(\mathbf{x})=\int_0^1\textcolor{green}{\frac{d}{dt}w(\lambda_t)}\textcolor{blue}{\mathcal{L}(t;\mathbf{x})}+w(\lambda_\text{max})\mathcal{L}(0;\mathbf{x})+\text{constant} Lw(x)=01dtdw(λt)L(t;x)+w(λmax)L(0;x)+constant
然后,由于我们假设 w ( λ t ) w(\lambda_t) w(λt) 关于 t ∈ [ 0 , 1 ] t\in[0,1] t[0,1] 是单调递增的。同时,不是一般性地,假设 w ( λ t ) w(\lambda_t) w(λt) 以经过归一化,有 w ( λ 1 ) = 1 w(\lambda_1)=1 w(λ1)=1 。我们可以进一步将加权损失简化为我们定义的 KL 散度的期望的形式:
L w ( x ) = E p w ( t ) [ L ( t ; x ) ] + constant \mathcal{L}_w(\mathbf{x})=\mathbb{E}_{\textcolor{green}{p_w(t)}}[\textcolor{blue}{\mathcal{L}(t;\mathbf{x})}]+\text{constant} Lw(x)=Epw(t)[L(t;x)]+constant
其中 p w ( t ) p_w(t) pw(t) 是由加权函数决定的一个概率分布,即 p w ( t ) : = ( d / d t w ( λ t ) ) p_w(t):=(d/dt\ w(\lambda_t)) pw(t):=(d/dt w(λt))。在 t ∈ [ 0 , 1 ] t\in[0,1] t[0,1] 上,分布 p w ( t ) p_w(t) pw(t) t = 0 t=0 t=0 处达到狄拉克函数峰值 w ( λ max ) w(\lambda_\text{max}) w(λmax) ,该质量值一般非常小。

注意有:
L ( t ; x ) = D K L ( q ( z t … , 1 ∣ x ) ∣ ∣ p ( z t … , 1 ) ) ≥ D K L ( q ( z t ∣ x ) ∣ ∣ p ( z t ) ) = E q ( z t ∣ x ) [ log ⁡ p ( z t ) ] + constant \begin{align} \mathcal{L}(t;\mathbf{x})&=D_{KL}(q(\mathbf{z}_{t\dots,1}|\mathbf{x})||p(\mathbf{z}_{t\dots,1}))\\ &\ge D_{KL}(q(\mathbf{z}_t|\mathbf{x})||p(\mathbf{z}_t))\\ &=\mathbb{E}_{q(\mathbf{z}_t|\mathbf{x})}[\log p(\mathbf{z}_t)]+\text{constant} \end{align} L(t;x)=DKL(q(zt,1x)∣∣p(zt,1))DKL(q(ztx)∣∣p(zt))=Eq(ztx)[logp(zt)]+constant
也就是说, L ( t ; x ) \mathcal{L}(t;\mathbf{x}) L(t;x) 等于噪声扰动数据的负 ELBO 预期加上一个常数。至此,本节开头处的结论得证。

这个结论带给我们一个全新的理解视角:带(隐式)单调加权函数的训练目标,都可以等价于带简单的数据扩增(加性高斯噪声)的 ELBO 目标。这其实是一种形式的分布扩增(Distribution Augmentation, DistAug),其模型在训练时指定了对应的数据扩增条件,在采样时指定 “无扩增” 的条件。

加权函数对于感知质量的影响

对于扩散模型训练目标中的加权函数,也就是我们刚证明的单调加权函数下的带数据扩增的 ELBO,对于生成结果感知质量的影响,本节提出几个可能的解释。

与低比特训练的联系

Glow 中发现,移除 8bit 数据中最不重要的 3 个比特,使用 5bit 数据上,能训练处保真度更高的模型。一个可能的原因是,更关键的比特,对于人类的感知质量的影响也越大,移除不重要的 3 个比特能够使得模型更加聚焦于更重要的 5 个比特。Glow 中对低比特数据添加均匀噪声,然后送入模型,作者发现添加高斯噪声也有类似的作用。添加单一等级的高斯噪声,可以看作是加权损失在加权函数为阶跃函数时的一种特殊情况。均匀噪声的影响可以近似为一个经过 sigmoid 的加权函数。

傅里叶分析

为了更好地理解为什么加性高斯噪声能够提升生成图像的感知质量,我们从对一张带噪图片进行傅里叶变换(Fourier Transforme,FT)的角度来考虑。由于 FT 是一种线性变换,所以真实图像和高斯噪声的加和的 FT 等于二者各自高斯噪声的加和。自然图像的功率谱(即作为空间频率函数的 FT 平均幅度)会随着频率的增加而快速下降,这意味着最低频率的幅度最高。另一方面,高斯白噪声的功率谱大致恒定。当向干净的自然图像添加噪声时,高频区域的信噪比(即干净图像和高斯噪声图像的功率谱之比)会降低。因此,相比于低频信息,加性高斯噪声会更快地有效地破坏数据中的高频信息,从而迫使模型更多地关注数据的低频分量,而这些低频分量通常对应于对感知更为关键的高级内容和全局结构。

总结

VDM++ 在其前作 VDM 的基础上进一步在理论上分析了扩散模型中的 ELBO 目标。将得分匹配、噪声估计等训练目标通过不同的加权函数统一到 ELBO 目标中,并进一步掲示了当加权函数是单调函数时,不同的扩散模型训练目标相当于 ELBO 目标搭配上简单的数据扩增(加性高斯)。对后续许多扩散模型(如 SD3)的训练策略设计产生了重大影响。

这篇关于Understanding Diffusion Objectives as the ELBO with Simple Data Augmentation的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1047822

相关文章

BD错误集锦3——ERROR: Can't get master address from ZooKeeper; znode data == null

hbase集群没启动,傻子!   启动集群 [s233 s234 s235]启动zk集群 $>zkServer.sh start $>zkServer.sh status   [s233] 启动dfs系统 $>start-dfs.sh 如果s237 namenode启动失败,则 [s237] $>hadoop-daemon.sh start namenode [s233]启动yarn集群

游戏高度可配置化(一)通用数据引擎(data-e)及其在模块化游戏开发中的应用构想图解

游戏高度可配置化(一)通用数据引擎(data-e)及其在模块化游戏开发中的应用构想图解 码客 卢益贵 ygluu 关键词:游戏策划 可配置化 模块化配置 数据引擎 条件系统 红点系统 一、前言 在插件式模块化软件开发当中,既要模块高度独立(解耦)又要共享模块数据,最好的方法是有个中间平台(中间件)提供标准的接口来进行数据的交换,这在很多行业软件开发中已经广泛应用。但是,由于中间件的抽象和封

【LocalAI】(13):LocalAI最新版本支持Stable diffusion 3,20亿参数图像更加细腻了,可以继续研究下

最新版本v2.17.1 https://github.com/mudler/LocalAI/releases Stable diffusion 3 You can use Stable diffusion 3 by installing the model in the gallery (stable-diffusion-3-medium) or by placing this YAML fi

Core Data 网络应用实例

转自:http://www.cocoachina.com/applenews/devnews/2014/0430/8275.html 转自 answer_huang的博客 几乎每一个应用开发者都需要经历的就是将从 web service 获取到的数据转变到 Core Data 中。这篇文章阐述了如何去做。我们在这里讨论的每一个问题在之前的文章中都已经描述过了,并且 Apple 在

Simple-STNDT使用Transformer进行Spike信号的表征学习(一)数据处理篇

文章目录 1.数据处理部分1.1 下载数据集1.2 数据集预处理1.3 划分train-val并创建Dataset对象1.4 掩码mask操作 数据、评估标准见NLB2021 https://neurallatents.github.io/ 以下代码依据 https://github.com/trungle93/STNDT 原代码使用了 Ray+Config文件进行了参数搜

开源C++版AI画图大模型框架stable-diffusion.cpp开发使用初体验

stable-diffusion.cpp是一个C++编写的轻量级开源类AIGC大模型框架,可以支持在消费级普通设备上本地部署运行大模型进行AI画图,以及作为依赖库集成的到应用程序中提供类似于网页版stable-diffusion的功能。 以下基于stable-diffusion.cpp的源码利用C++ api来开发实例demo演示加载本地模型文件输入提示词生成画图,这里采用显卡CUDA加速计算,

Understanding glibc malloc

https://sploitfun.wordpress.com/2015/02/10/understanding-glibc-malloc/comment-page-1/

spring-data-redis 连接池应用

具体配置看我的项目。用的是redisTemplate ,和jdbctemplate  是不是很相似。 真的不想吐槽csdn,钻钱眼里了,我想上传我的代码,免费都不行吗 想要测试代码可以私信,也可以模仿https://www.cnblogs.com/tankaixiong/p/3660075.html  这个链接下的。

Windows 内核驱动无法使用 __DATA__、__TIME__、__TIMESTAMP__ 解决方法

项目 -> 属性 -> Driver Settings -> Driver Model -> Allow Date, Time and Timestamp -> Yes。 感谢单总的解答和这篇文章:https://developercommunity.visualstudio.com/content/problem/186922/-timestamp-macro-not-defined-in-r

Stable Diffusion Model网站

Civitai Models | Discover Free Stable Diffusion Modelshttps://www.tjsky.net/tutorial/488https://zhuanlan.zhihu.com/p/610298913超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件 - 优设网 - 学设计上优设 (uisdc.com)ht