本文主要是介绍降维:主成分分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
主成分分析最大方差理论
主成分分析(PCA)目标是找到数据中的主成分,并利用这些主成分表征原始数据,因而做到降维。
在信号领域,认为信号具有较大的方差,噪声具有较小的方差,信号与噪声之比称为信噪比,信噪比越大意味着数据质量也就越好。进而可以采用最大化投影方差的方法实现PCA的目标。
给定一组数据点 { v 1 , v 2 , ⋯   , v n } \{v_1,v_2,\cdots,v_n\} {v1,v2,⋯,vn},进行中心化表示:
{ x 1 , x 2 , ⋯   , x n } = { v 1 − μ , v 2 − μ , ⋯   , v n − μ } , μ = 1 n ∑ i = 1 n v i \{x_1,x_2,\cdots,x_n\}=\{v_1-\mu,v_2-\mu,\cdots,v_n-\mu\},\mu=\frac{1}{n}\sum_{i=1}^{n}v_i {x1,x2,⋯,xn}={v1−μ,v2−μ,⋯,vn−μ},μ=n1i=1∑nvi
目标是找到一个投影方向 ω \omega ω(单位方向向量)使得 { x 1 , x 2 , ⋯   , x n } \{x_1,x_2,\cdots,x_n\} {x1,x2,⋯,xn}在 ω \omega ω上的投影方差尽可能大,投影后的均值为
μ ′ = 1 n ∑ i = 1 n x i T ω = ( 1 n ∑ i = 1 n x i T ) ω = 0 \mu'=\frac{1}{n}\sum_{i=1}^{n}x_i^T\omega=(\frac{1}{n}\sum_{i=1}^{n}x_i^T)\omega=0 μ′=n1i=1∑nxiTω=(n1i=1∑nxiT)ω=0此时,投影后的方差可以表示为
D ( x ) = 1 n ∑ i = 1 n ( x i T ω ) 2 = ω T ( 1 n ∑ i = 1 n x i x i T ) ω D(x)=\frac{1}{n}\sum_{i=1}^{n}(x_i^T\omega)^2=\omega^T(\frac{1}{n}\sum_{i=1}^{n}x_ix_i^T)\omega D(x)=n1i=1∑n(xiTω)2=ωT(n1i=1∑nxixiT)ω
1 n ∑ i = 1 n x i x i T \frac{1}{n}\sum_{i=1}^{n}x_ix_i^T n1∑i=1nxixiT是样本协方差矩阵,记为 Σ \Sigma Σ.
PCA求解下述最大化问题
max ω T Σ ω , s . t . ω T ω = 1 \max{\omega^T\Sigma\omega},s.t.\omega^T\omega=1 maxωTΣω,s.t.ωTω=1引入拉格朗日乘子,可以推出 Σ ω = λ ω \Sigma\omega=\lambda\omega Σω=λω,此时有
D ( x ) = ω T Σ ω = λ ω T ω = λ D(x)=\omega^T\Sigma\omega=\lambda\omega^T\omega=\lambda D(x)=ωTΣω=λωTω=λ即 x x x投影后的方差为协方差矩阵的特征值,找到的最大方差也就是协方差矩阵最大的特征值,最佳投影方向是相应的特征向量。可以推出次佳投影方向是第二大特征值对应的特征向量,依此类推。
总结归纳PCA求解过程:
- 求样本协方差矩阵
- 求解协方差矩阵特征值
- 根据需求,取前 k k k大特征值所对应的特征向量 ω 1 , ω 2 , ⋯   , ω k \omega_1,\omega_2,\cdots,\omega_k ω1,ω2,⋯,ωk,投影得到样本的 k k k维表示
x i ′ = ( ω 1 T x i , ω 2 T x i , ⋯   , ω k T x i ) T x_i'=(\omega^T_1x_i,\omega^T_2x_i,\cdots,\omega^T_kx_i)^T xi′=(ω1Txi,ω2Txi,⋯,ωkTxi)T
这篇关于降维:主成分分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!