系统理解扩散模型(Diffusion Models):从柏拉图洞穴之喻开始(上)

2023-10-10 07:40

本文主要是介绍系统理解扩散模型(Diffusion Models):从柏拉图洞穴之喻开始(上),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

系统理解扩散模型(Diffusion Models):从柏拉图洞穴之喻开始(上)

  • 柏拉图洞穴之喻
  • 生成模型
  • 证据下界(Evidence Lower Bound)
  • 变分自编码器(Variational Autoencoders)
  • 层级变分自编码器(Hierarchical Variational Autoencoders)

本文参考"Understanding Diffusion Models: A Unified Perspective"

柏拉图洞穴之喻

洞穴之喻(Allegory of the Cave)是柏拉图在《理想国》514-521中描述的对人类知识的基本想象。

洞穴理论

设想在洞穴中有一批囚徒,他们终身呆在那里,被铁链束缚、不能转头,只能看到面前洞壁上的影子。他们身后有一条横贯洞穴的小道,沿小道有一堵矮墙,临着矮墙上方有一堆篝火。有一些特定的人,扛着各种根据现实中的实物所做的模型走过墙后的小道,而火光则把透出墙的器具投影到囚徒面前的洞壁上。对这些囚徒而言,他们能观测到的就是这些从不曾见识过的高维实物的低维投影。

生成模型

类似地,我们在现实世界中观测到的物体也可能是从一个抽象的表示方法(例如结合了形状、颜色、大小等多种特征组合的表示)生成的。然后,正如洞穴之喻中的囚徒观测到的是三维物体的二维投影,我们观测到的物体也是这些抽象概念的某种“投影”。尽管洞穴中的人从未看到过隐藏在身后的物体实体,他们也依然能够这些实体进行推断。同样的道理,我们也能够估计表示我们观测到的数据的潜在变量(latent variable)。一旦掌握了这种表示方法,我们就可以利用其生成新的数据,这就是生成模型的底层思想。

不同的是,洞穴之喻中的潜在变量的维度比实际观测的高;而对于生成模型,我们一般是希望寻找一个更低维度的潜在表示。这大致出于两个原因:一方面,在没有很强先验知识的前提下找到一个比实际观测维度更高的表示十分困难;另一方面,采用更低维度的表示可以看作是一个压缩过程,有助于挖掘有语意意义的结构(semantically meaningful structure)。

证据下界(Evidence Lower Bound)

数学上,我们通过联合分布 p ( x , z ) p(x, z) p(x,z)对观测值 x x x和潜在变量 z z z进行建模。那么,基于似然(likelihood-based)的生成旨在学习模型,最大化所有观测值 x x x的似然函数 p ( x ) p(x) p(x)。根据联合分布 p ( x , z ) p(x, z) p(x,z),我们有两种方式可以推出 p ( x ) p(x) p(x)。第一种是求对于 x x x的边缘概率分布:
p ( x ) = ∫ p ( x , z ) d z \begin{equation} p(x) = \int p(x, z) dz \end{equation} p(x)=p(x,z)dz
第二种则是利用贝叶斯公式进行推导:
p ( x ) = p ( x , z ) p ( z ∣ x ) \begin{equation} p(x) = \frac{p(x, z)}{p(z| x)} \end{equation} p(x)=p(zx)p(x,z)
直接计算并最大化似然函数 p ( x ) p(x) p(x)十分困难:从(1)出发,我们需要对所有的潜在变量 z z z进行积分,遇到复杂的模型更是难上加难;从(2)出发,我们则需要一个真实的潜在编码器(ground truth latent encoder) p ( x , z ) p(x, z) p(x,z)

但是,我们可以利用这两个式子推出证据下界(Evidence Lower Bound, ELBO)。所谓的“证据”即是观测值的对数似然函数(log likelihood),而ELBO正是其下界:
log ⁡ p ( x ) ≥ E q ϕ ( z ∣ x ) [ log ⁡ p ( x , z ) q ϕ ( z ∣ x ) ] \begin{equation} \log p(x) \geq \mathbb{E}_{q_\phi(z|x)}[\log \frac{p(x, z)}{q_\phi(z|x)}] \end{equation} logp(x)Eqϕ(zx)[logqϕ(zx)p(x,z)]
q ϕ ( z ∣ x ) q_\phi(z|x) qϕ(zx)是一个近似变分分布, ϕ \phi ϕ是要优化的参数,其旨在近似真实的后验(posterior)分布 p ( z ∣ x ) p(z|x) p(zx)。这里,我们利用(2)推导(3):
log ⁡ p ( x ) = log ⁡ p ( x ) ∫ q ϕ ( z ∣ x ) d z = ∫ q ϕ ( z ∣ x ) ( log ⁡ p ( x ) ) d z = E q ϕ ( z ∣ x ) log ⁡ p ( x ) = E q ϕ ( z ∣ x ) [ log ⁡ p ( x , z ) p ( z ∣ x ) ] = E q ϕ ( z ∣ x ) [ log ⁡ p ( x , z ) q ϕ ( z ∣ x ) p ( z ∣ x ) q ϕ ( z ∣ x ) ] = E q ϕ ( z ∣ x ) [ log ⁡ p ( x , z ) q ϕ ( z ∣ x ) ] + E q ϕ ( z ∣ x ) [ log ⁡ q ϕ ( z ∣ x ) p ( z ∣ x ) ] = E q ϕ ( z ∣ x ) [ log ⁡ p ( x , z ) q ϕ ( z ∣ x ) ] + D K L ( q ϕ ( z ∣ x ) ∥ p ( z ∣ x ) ) ≥ E q ϕ ( z ∣ x ) [ log ⁡ p ( x , z ) q ϕ ( z ∣ x ) ] \begin{align} \log p(x) &= \log p(x) \int q_\phi(z|x)dz \\ & = \int q_\phi(z|x) (\log p(x))dz \\ & = \mathbb{E}_{q_\phi(z|x)}\log p(x) \\ & = \mathbb{E}_{q_\phi(z|x)}\left[\log\frac{p(x, z)}{p(z| x)}\right] \\ & = \mathbb{E}_{q_\phi(z|x)}\left[\log\frac{p(x, z)q_\phi(z|x)}{p(z| x)q_\phi(z|x)}\right] \\ & = \mathbb{E}_{q_\phi(z|x)}\left[\log\frac{p(x, z)}{q_\phi(z|x)}\right] + \mathbb{E}_{q_\phi(z|x)}\left[\log\frac{q_\phi(z|x)}{p(z| x)}\right] \\ & = \mathbb{E}_{q_\phi(z|x)}\left[\log\frac{p(x, z)}{q_\phi(z|x)}\right] + D_{KL}(q_\phi(z|x)\ \|\ p(z| x)) \\ & \geq \mathbb{E}_{q_\phi(z|x)}\left[\log\frac{p(x, z)}{q_\phi(z|x)}\right] \end{align} logp(x)=logp(x)qϕ(zx)dz=qϕ(zx)(logp(x))dz=Eqϕ(zx)logp(x)=Eqϕ(zx)[logp(zx)p(x,z)]=Eqϕ(zx)[logp(zx)qϕ(zx)p(x,z)qϕ(zx)]=Eqϕ(zx)[logqϕ(zx)p(x,z)]+Eqϕ(zx)[logp(zx)qϕ(zx)]=Eqϕ(zx)[logqϕ(zx)p(x,z)]+DKL(qϕ(zx)  p(zx))Eqϕ(zx)[logqϕ(zx)p(x,z)]

KL散度: D K L ( P ∥ Q ) = ∑ i P ( i ) log ⁡ P ( i ) Q ( i ) ≥ 0 D_{KL}(P\ \| \ Q) = \sum_i P(i)\log \frac{P(i)}{Q(i)}\geq 0 DKL(P  Q)=iP(i)logQ(i)P(i)0

根据以上分析,我们引入 q ϕ ( z ∣ x ) q_\phi(z|x) qϕ(zx)来近似真实的后验分布 p ( z ∣ x ) p(z|x) p(zx),这个目标可以通过最小化两者间的KL散度实现。但是,由于我们不知道 p ( z ∣ x ) p(z|x) p(zx),我们无法直接最小化该KL散度。不过,我们可以通过(10)发现,对数似然 log ⁡ p ( x ) \log p(x) logp(x)与参数 ϕ \phi ϕ无关,并且它等于ELBO和上述KL散度的和。因此,我们可以通过最大化ELBO来实现缩小 q ϕ ( z ∣ x ) q_\phi(z|x) qϕ(zx) p ( z ∣ x ) p(z|x) p(zx)间的差距。此外,优化后的ELBO是对数似然的近似,可以用来估计似然函数 p ( x ) p(x) p(x)

变分自编码器(Variational Autoencoders)

在原始的变分自编码器(Variational Autoencoders,VAE)模型中,我们就是直接最大化ELBO。为了看清它们之间的联系,我们对ELBO作进一步变形:
E q ϕ ( z ∣ x ) [ log ⁡ p ( x , z ) q ϕ ( z ∣ x ) ] = E q ϕ ( z ∣ x ) [ log ⁡ p θ ( x ∣ z ) p ( z ) q ϕ ( z ∣ x ) ] = E q ϕ ( z ∣ x ) [ log ⁡ p θ ( x ∣ z ) ] + E q ϕ ( z ∣ x ) [ log ⁡ p ( z ) q ϕ ( z ∣ x ) ] = E q ϕ ( z ∣ x ) [ log ⁡ p θ ( x ∣ z ) ] − D K L ( q ϕ ( z ∣ x ) ∥ p ( z ) ) \begin{align} \mathbb{E}_{q_\phi(z|x)}\left[\log\frac{p(x, z)}{q_\phi(z|x)}\right] &= \mathbb{E}_{q_\phi(z|x)}\left[\log\frac{p_\theta(x|z)p(z)}{q_\phi(z|x)}\right] \\ &= \mathbb{E}_{q_\phi(z|x)}\left[\log p_\theta(x|z)\right] +\mathbb{E}_{q_\phi(z|x)}\left[\log\frac{p(z)}{q_\phi(z|x)}\right] \\ &= \mathbb{E}_{q_\phi(z|x)}\left[\log p_\theta(x|z)\right] - D_{KL}(q_\phi(z|x) \| \ p(z)) \end{align} Eqϕ(zx)[logqϕ(zx)p(x,z)]=Eqϕ(zx)[logqϕ(zx)pθ(xz)p(z)]=Eqϕ(zx)[logpθ(xz)]+Eqϕ(zx)[logqϕ(zx)p(z)]=Eqϕ(zx)[logpθ(xz)]DKL(qϕ(zx) p(z))
对于VAE,我们学习一个可以看作是编码器(encoder)的分布 q ϕ ( z ∣ x ) q_\phi(z|x) qϕ(zx),它将输入转化成可能的潜在表示;同时,我们学习一个可以解释为解码器(decoder)的函数 p θ ( x ∣ z ) p_\theta(x|z) pθ(xz),它将给定的潜在变量 z z z转化成观测值 x x x。那么,(14)中,第一项衡量了恢复的似然;第二项衡量了学习到的变分分布和潜在变量先验的差距。因此,最大化ELBO相当于最大化第一项并且最小化第二项,即最大化“似然”和最小化“差距”。

VAE的一个特征是通过变量 θ \theta θ ϕ \phi ϕ对ELBO进行联合优化的方式。具体而言,VAE的编码器通常对多维正态分布进行建模,而先验通常选择为标准多维正态分布:
q ϕ ( z ∣ x ) = N ( z ; μ ϕ ( x ) , σ ϕ 2 ( x ) I ) p ( z ) = N ( z ; 0 , I ) \begin{align} q_\phi(z|x) &= \mathcal{N}(z; \mu_\phi(x), \sigma^2_\phi(x)I) \\ p(z) &= \mathcal{N}(z; 0, I) \end{align} qϕ(zx)p(z)=N(z;μϕ(x),σϕ2(x)I)=N(z;0,I)
因此,(14)式中的KL散度可以写出具体形式,而第一项可以通过蒙特卡洛估计(Monte Caro Estimate)来近似。此时,我们的目标可以写为:
arg max ⁡ ϕ , θ E q ϕ ( z ∣ x ) [ log ⁡ p θ ( x ∣ z ) ] − D K L ( q ϕ ( z ∣ x ) ∥ p ( z ) ) ≈ arg max ⁡ ϕ , θ ∑ l L log ⁡ p θ ( x ∣ z ( l ) ) − D K L ( q ϕ ( z ∣ x ) ∥ p ( z ) ) \begin{align} &\argmax_{\phi, \theta} \mathbb{E}_{q_\phi(z|x)}\left[\log p_\theta(x|z)\right] - D_{KL}(q_\phi(z|x) \| \ p(z))\\ \thickapprox &\argmax_{\phi, \theta} \sum_l^L\log p_\theta(x|z^{(l)}) - D_{KL}(q_\phi(z|x) \| \ p(z)) \end{align} ϕ,θargmaxEqϕ(zx)[logpθ(xz)]DKL(qϕ(zx) p(z))ϕ,θargmaxlLlogpθ(xz(l))DKL(qϕ(zx) p(z))
其中,潜在变量 { z ( l ) } l = 1 L \{z^{(l)}\}^{L}_{l=1} {z(l)}l=1L是由数据集中的所有观测值 x x x通过 q ϕ ( z ∣ x ) q_\phi(z|x) qϕ(zx)采样得到的。但是,这一随机采样过程通常是不可导的(non-differentiable)。不过,由于 q ϕ ( z ∣ x ) q_\phi(z|x) qϕ(zx)被设计成一个特定的概率分布,我们可以通过重参数化(reparameterization)来解决这个问题。

重参数化技巧在于将一个随机变量表示成一个噪声变量的确定性函数。例如,一个正态分布中的样本 x ∼ N ( x ; μ , σ 2 ) x \sim \mathcal{N}(x; \mu, \sigma^2) xN(x;μ,σ2)可以重新表示为:
x = μ + σ ϵ , with  ϵ ∼ N ( x ; 0 , I ) x = \mu + \sigma \epsilon, \ \text{with}\ \epsilon \sim \mathcal{N}(x; 0, I) x=μ+σϵ, with ϵN(x;0,I)
因此,我们可以先从一个标准正态分布分布采样,然后对结果进行相应的变换,以实现在任意一个正态分布上进行采样。在VAE模型中, z z z可以通过以下方式得到:
z = μ ϕ ( x ) + σ ϕ ( x ) ⊙ ϵ , with  ϵ ∼ N ( x ; 0 , I ) z = \mu_\phi(x) + \sigma_\phi(x) \odot \epsilon, \ \text{with}\ \epsilon \sim \mathcal{N}(x; 0, I) z=μϕ(x)+σϕ(x)ϵ, with ϵN(x;0,I)
⊙ \odot 表示对应元素相乘。此时,我们可以计算 ϕ \phi ϕ的梯度来优化 μ ϕ \mu_\phi μϕ σ ϕ \sigma_\phi σϕ

训练好VAE模型后,我们可以从潜在空间 p ( z ) p(z) p(z)采样后输入到解码器中生成新数据。

层级变分自编码器(Hierarchical Variational Autoencoders)

层级变分自编码器(Hierarchical Variational Autoencoders,HVAE)是对VAE模型的自然扩展,顾名思义,此时我们有多层级的潜在变量,也就是说潜在变量本身也来自于一个其它更高层级、更抽象的潜在变量。回到柏拉图的洞穴之喻,正如我们观测到的三维实体是来自于更高层级的抽象潜在变量,洞穴中的囚徒是将我们观测到的三维实体作为他们二维观测值的潜在变量。因此,对于洞穴中的囚徒而言,他们的观测值此时经过了两层“潜在”建模。

对于一般的HVAE来说,某一层级的潜在变量可由之前所有潜在变量决定。在这里,我们仅讨论一类特殊的HAVE——Markovian HVAE (MHVAE)。对于MHAVE,生成过程是一个马尔可夫链(Markov chain),也就是说每层的潜在变量 z t z_t zt仅由前一层的潜在变量 z t + 1 z_{t+1} zt+1决定。

Markovian HAVE

数学上,我们可以把MHVAE的联合分布和后验分布表示为:
p ( x , z 1 : T ) = p ( z T ) p θ ( x ∣ z 1 ) ∏ t = 2 T p θ ( z t − 1 ∣ z t ) q ϕ ( z 1 : T ∣ x ) = q ϕ ( z 1 ∣ x ) ∏ t = 2 T q ϕ ( z t ∣ z t − 1 ) \begin{align} p(x, z_{1:T}) &= p(z_T)p_\theta(x|z_1)\prod_{t=2}^{T}p_\theta(z_{t-1}|z_t) \\ q_\phi(z_{1:T}|x) &= q_\phi(z_1|x)\prod_{t=2}^Tq_\phi(z_t|z_{t-1}) \end{align} p(x,z1:T)qϕ(z1:Tx)=p(zT)pθ(xz1)t=2Tpθ(zt1zt)=qϕ(z1x)t=2Tqϕ(ztzt1)
进而,我们可以推导出ELBO:
log ⁡ p ( x ) = log ⁡ ∫ p ( x , z 1 : T ) d z 1 : T = log ⁡ ∫ p ( x , z 1 : T ) q ϕ ( z 1 : T ∣ x ) q ϕ ( z 1 : T ∣ x ) d z 1 : T = log ⁡ E q ϕ ( z 1 : T ∣ x ) [ p ( x , z 1 : T ) q ϕ ( z 1 : T ∣ x ) ] ≥ E q ϕ ( z 1 : T ∣ x ) [ log ⁡ p ( x , z 1 : T ) q ϕ ( z 1 : T ∣ x ) ] \begin{align} \log p(x) &= \log \int p(x, z_{1:T}) dz_{1:T} \\ &= \log \int \frac{p(x, z_{1:T})q_\phi(z_{1:T}|x)}{q_\phi(z_{1:T}|x)} dz_{1:T}\\ &= \log \mathbb{E}_{q_\phi(z_{1:T}|x)}\left[\frac{p(x, z_{1:T})}{q_\phi(z_{1:T}|x)}\right] \\ &\geq \mathbb{E}_{q_\phi(z_{1:T}|x)}\left[\log\frac{p(x, z_{1:T})}{q_\phi(z_{1:T}|x)}\right] \end{align} logp(x)=logp(x,z1:T)dz1:T=logqϕ(z1:Tx)p(x,z1:T)qϕ(z1:Tx)dz1:T=logEqϕ(z1:Tx)[qϕ(z1:Tx)p(x,z1:T)]Eqϕ(z1:Tx)[logqϕ(z1:Tx)p(x,z1:T)]

琴生不等式(Jensen’s Inequality): log ⁡ ( ∑ i = 1 n x i n ) ≥ ∑ i = 1 n log ⁡ x i n \log (\sum_{i=1}^n\frac{x_i}{n}) \geq \sum_{i=1}^n\frac{\log x_i}{n} log(i=1nnxi)i=1nnlogxi

代入(19)和(20)可得:
E q ϕ ( z 1 : T ∣ x ) [ log ⁡ p ( x , z 1 : T ) q ϕ ( z 1 : T ∣ x ) ] = E q ϕ ( z 1 : T ∣ x ) [ log ⁡ p ( z T ) p θ ( x ∣ z 1 ) ∏ t = 2 T p θ ( z t − 1 ∣ z t ) q ϕ ( z 1 ∣ x ) ∏ t = 2 T q ϕ ( z t ∣ z t − 1 ) ] \begin{align} &\mathbb{E}_{q_\phi(z_{1:T}|x)}\left[\log\frac{p(x, z_{1:T})}{q_\phi(z_{1:T}|x)}\right] \\= &\mathbb{E}_{q_\phi(z_{1:T}|x)}\left[\log\frac{p(z_T)p_\theta(x|z_1)\prod_{t=2}^{T}p_\theta(z_{t-1}|z_t)}{q_\phi(z_1|x)\prod_{t=2}^Tq_\phi(z_t|z_{t-1})}\right] \end{align} =Eqϕ(z1:Tx)[logqϕ(z1:Tx)p(x,z1:T)]Eqϕ(z1:Tx)[logqϕ(z1x)t=2Tqϕ(ztzt1)p(zT)pθ(xz1)t=2Tpθ(zt1zt)]

这篇关于系统理解扩散模型(Diffusion Models):从柏拉图洞穴之喻开始(上)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/179010

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

水位雨量在线监测系统概述及应用介绍

在当今社会,随着科技的飞速发展,各种智能监测系统已成为保障公共安全、促进资源管理和环境保护的重要工具。其中,水位雨量在线监测系统作为自然灾害预警、水资源管理及水利工程运行的关键技术,其重要性不言而喻。 一、水位雨量在线监测系统的基本原理 水位雨量在线监测系统主要由数据采集单元、数据传输网络、数据处理中心及用户终端四大部分构成,形成了一个完整的闭环系统。 数据采集单元:这是系统的“眼睛”,

认识、理解、分类——acm之搜索

普通搜索方法有两种:1、广度优先搜索;2、深度优先搜索; 更多搜索方法: 3、双向广度优先搜索; 4、启发式搜索(包括A*算法等); 搜索通常会用到的知识点:状态压缩(位压缩,利用hash思想压缩)。

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

嵌入式QT开发:构建高效智能的嵌入式系统

摘要: 本文深入探讨了嵌入式 QT 相关的各个方面。从 QT 框架的基础架构和核心概念出发,详细阐述了其在嵌入式环境中的优势与特点。文中分析了嵌入式 QT 的开发环境搭建过程,包括交叉编译工具链的配置等关键步骤。进一步探讨了嵌入式 QT 的界面设计与开发,涵盖了从基本控件的使用到复杂界面布局的构建。同时也深入研究了信号与槽机制在嵌入式系统中的应用,以及嵌入式 QT 与硬件设备的交互,包括输入输出设

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

【区块链 + 人才服务】可信教育区块链治理系统 | FISCO BCOS应用案例

伴随着区块链技术的不断完善,其在教育信息化中的应用也在持续发展。利用区块链数据共识、不可篡改的特性, 将与教育相关的数据要素在区块链上进行存证确权,在确保数据可信的前提下,促进教育的公平、透明、开放,为教育教学质量提升赋能,实现教育数据的安全共享、高等教育体系的智慧治理。 可信教育区块链治理系统的顶层治理架构由教育部、高校、企业、学生等多方角色共同参与建设、维护,支撑教育资源共享、教学质量评估、