本文主要是介绍深度学习中隐变量(latent variable)理解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
假如有 x , y x,y x,y服从如下分布关系:
看起来像是3元混合高斯分布,比较复杂。
如果我们再引入隐变量 z z z,使得 z = z 1 z = z_1 z=z1时, x , y ∼ N ( μ 1 , Σ 1 ) x, y \sim N(\mu_1, \Sigma_1) x,y∼N(μ1,Σ1); z = z 2 z = z_2 z=z2时, x , y ∼ N ( μ 2 , Σ 2 ) x, y \sim N(\mu_2, \Sigma_2) x,y∼N(μ2,Σ2); z = z 3 z = z_3 z=z3时, x , y ∼ N ( μ 3 , Σ 3 ) x, y \sim N(\mu_3, \Sigma_3) x,y∼N(μ3,Σ3)。问题就变得简单多了。
而从图中可以看出每个区域点的密度也不一样,这对应隐变量 z z z的分布,即 P ( z = z i ) = p i P(z = z_i) = p_i P(z=zi)=pi。
这篇关于深度学习中隐变量(latent variable)理解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!