奇异值分解SVD(singular value decomposition)

2023-12-01 02:01

本文主要是介绍奇异值分解SVD(singular value decomposition),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

奇异值分解

SVD是一个很有用的矩阵因子化方法。
SVD提出的目的:任何一个 m × n m\times n m×n的矩阵都可以当作一个超椭圆(高维空间的椭圆),可以把它们当作单位球体S的像。
一个超椭圆可以通过将单位球型在正交方向 u 1 , u 2 , . . . , u m \mathbf{u_1},\mathbf{u_2},...,\mathbf{u_m} u1,u2,...,um通过缩放因子 σ 1 , . . . , σ m \sigma_1,..., \sigma_m σ1,...,σm,其中m是维度,如果在平面上m=2
在这里插入图片描述
通过上面这张图,可以做出下面的定义:

  1. singular value: σ 1 , . . . , σ n ≥ 0 \sigma_1,..., \sigma_n\geq 0 σ1,...,σn0一般假设 σ 1 ≥ σ 2 ≥ . . . \sigma_1 \geq \sigma_2 \geq ... σ1σ2...
  2. Light singular vectors: u 1 , u 2 , . . . , u n \mathbf{u_1},\mathbf{u_2},...,\mathbf{u_n} u1,u2,...,un,单位向量
  3. right singular vectors: v 1 , v 2 , . . . , v n \mathbf{v_1},\mathbf{v_2},...,\mathbf{v_n} v1,v2,...,vn是ui的逆向满足 A v i = σ i u i Av_i = \sigma_i u_i Avi=σiui
    这个名字中左和右来自svd的公式。
    把上面的公式矩阵化,可以得到:
    A V = U ^ Σ ^ AV = \hat U \hat \Sigma AV=U^Σ^
    在这里面
  4. Σ ^ ∈ R n × n \hat{\Sigma}\in\mathbb{R}^{n\times n} Σ^Rn×n是一个非负数对角矩阵
  5. U ^ ∈ R m × n \hat{U}\in\mathbb{R}^{m\times n} U^Rm×n是一个列正交矩阵
  6. V ∈ R n × n V\in\mathbb{R}^{n\times n} VRn×n是一个列正交矩阵
    因此V是个正交矩阵,因为它是基向量,因此我们就可以得到reduced SVD:
    A = U ^ Σ ^ V T A = \hat U \hat \Sigma V^T A=U^Σ^VT
    正如QR分解一样,可以把扩充 U ^ \hat U U^的列使得 U ∈ R m × m U\in\mathbb{R}^{m\times m} URm×m
    然后需要给 Σ ^ \hat{\Sigma} Σ^添加一些为为0的行,使得可以沉默掉新添加到U中的随机列,这样就得到了完全SVD
    A = U Σ V T A = U \Sigma V^T A=UΣVT
    对比reduced和full
    在这里插入图片描述
    现在重新考虑当时把球型变为超椭圆型的目的。
    1 V T V^T VT是球型S
    2 Σ \Sigma Σ拉伸球型得到椭球形
    3 U U U旋转投射而不改变形状

通过SVD可以知道一些矩阵性质

  1. A的秩为r,也就是非零奇异值的个数
    proof:U和V是满秩的,所以rank(A) = rank( Σ \Sigma Σ)
  2. image(A) = span{ u 1 , u 2 , . . . , u r \mathbf{u_1},\mathbf{u_2},...,\mathbf{u_r} u1,u2,...,ur}
    null(A) = span{ v r + 1 , . . . , v n \mathbf{v_{r+1}},...,\mathbf{v_n} vr+1,...,vn}
  3. ∣ ∣ A ∣ ∣ 2 = σ 1 ||A||_2=\sigma_1 ∣∣A2=σ1
    proof: ∣ ∣ A ∣ ∣ 2 ≡ m a x ∣ ∣ V ∣ ∣ 2 = 1 ||A||_2 \equiv max_{||V||_2=1} ∣∣A2max∣∣V2=1||Av||_2
  4. A的奇异值是AAT的特征值的平方根。
    根据上面的性质:可以知道SVD的两种应用

长方形矩阵的条件数

K ( A ) = ∣ ∣ A ∣ ∣ ∣ ∣ A + ∣ ∣ K(A)=||A||||A^+|| K(A)=∣∣A∣∣∣∣A+∣∣
其中 A + A^+ A+是伪逆

  • ∣ ∣ A ∣ ∣ 2 = σ m a x ||A||_2 = \sigma_{max} ∣∣A2=σmax
  • ∣ ∣ A + ∣ ∣ 2 = 1 σ m i n ||A^+||_2 = \frac{1}{\sigma_{min}} ∣∣A+2=σmin1
    所以 K ( A ) = σ m a x σ m i n K(A)=\frac{\sigma_{max}}{\sigma_{min}} K(A)=σminσmax

低秩近似

把SVD变为
A = ∑ j = 1 r σ j u j v j T A = \sum^r_{j=1}\sigma_j u_j v_j^T A=j=1rσjujvjT
每个 u j v j T u_j v_j^T ujvjT都是一个秩为1的矩阵
Theorem:
对于 0 ≤ v ≤ r 0\leq v \leq r 0vr,让 A v = ∑ j = 1 v σ j u j v j T Av = \sum^v_{j=1}\sigma_ju_jv_j^T Av=j=1vσjujvjT
所以
∣ ∣ A − A v ∣ ∣ 2 = inf ⁡ B ∈ R m × n , r a n k ( B ) ≤ v ∣ ∣ A − B ∣ ∣ 2 ||A-Av||_2 = \inf_{B\in \mathbb{R}^{m\times n}, rank(B)\leq v}{||A-B||_2} ∣∣AAv2=BRm×n,rank(B)vinf∣∣AB2
同样的也可以在Frobenius norm中证明,这个理论说明SVD是压缩矩阵的一个好的方法。

这篇关于奇异值分解SVD(singular value decomposition)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/439387

相关文章

特征值分解(EVD)和奇异值分解(SVD)—应用于图片压缩

特征值分解(EVD)和奇异值分解(SVD)—应用于图片压缩 目录 前言 一、特征值分解 二、应用特征值分解对图片进行压缩 三、矩阵的奇异值分解 四、应用奇异值分解对图片进行压缩 五、MATLAB仿真代码 前言         学习了特征值分解和奇异值分解相关知识,发现其可以用于图片压缩,但网上没有找到相应代码,本文在学习了之后编写出了图片压缩的代码,发现奇异值分

为 Key-Value 数据库实现MVCC 事务

ACID是软件领域使用最广泛的技术之一,它是关系数据库的基石,是企业级中间件不可或缺的部分,但通常通过黑盒的方式提供。但是在许多情况下,这种古老的事务方式已经不能够适应现代大规模系统和NoSQL数据库的需要了,现代系统要求更高的性能要求,更大的数据量,更高的可用性。在这种情况下,传统的事务模型被定制的事务或者半事务模型所取代,而在这些模型中事务性并不像以往那样被看重。   在本文中我们会讨论一

兔子-(PHP 5.3 and above) Please set 'request_order' ini value to include C,G and P (recommended: 'CGP'

由于在PHP最新的版本中增加了一个配置项目“request_order”,默认值为“GP”,这个存在一定的安全风险。这里我们建议用户将配置更改为“CGP” 可以在php的安装目录下找到php.ini配置目录,找到下面选项: request_order = "GP"  更改为 request_order = "CGP"   重启服务器后即可。 此

MySql 1264 - Out of range value for column 异常

前段时间操作数据库,本是一个很简单的修改语句,却报了  1264 - Out of range value for column字段类型官网  当时一看懵逼了,网上很多都说是配置的问题,需要修改my.ini文件,这个方式我没有试过,我想肯定还有其它方法,经过慢慢排 查发现表里的字段为 decimal(10,3) ,这说明小数点前只有7位,保留了3位小数点,而值在小数点前却有8位,这就导致了错误

连分数因子分解法——C语言实现

参考网址:连分数分解法寻找整数的因子(Python)-CSDN博客 大数运算:C语言实现 大数运算 加减乘除模运算 超详细_64编程 加减乘除取模 复杂运算-CSDN博客 ‌连分数因子分解法‌是一种用于大整数因子分解的算法,它是计算数论中的一个重要方法。连分数因子分解法通过寻找x2≡y2 (mod p)x2≡y2 (mod p)的形式来分解N。具体来说,这种方法涉及到计算N的简单连分数展开,并

时序预测|变分模态分解-双向时域卷积-双向门控单元-注意力机制多变量时间序列预测VMD-BiTCN-BiGRU-Attention

时序预测|变分模态分解-双向时域卷积-双向门控单元-注意力机制多变量时间序列预测VMD-BiTCN-BiGRU-Attention 文章目录 一、基本原理1. 变分模态分解(VMD)2. 双向时域卷积(BiTCN)3. 双向门控单元(BiGRU)4. 注意力机制(Attention)总结流程 二、实验结果三、核心代码四、代码获取五、总结 时序预测|变分模态分解-双向时域卷积

《机器学习》 基于SVD的矩阵分解 推导、案例实现

目录 一、SVD奇异值分解 1、什么是SVD 2、SVD的应用         1)数据降维         2)推荐算法         3)自然语言处理 3、核心         1)什么是酉矩阵         2)什么是对角矩阵 4、分解过程 二、推导 1、如何求解这三个矩阵         1)已知:          2)根据酉矩阵的特点即可得出:

SVD降维

文章目录 一、SVD降维的基本原理二、SVD降维的步骤三、SVD降维的优点四、SVD降维的应用五、代码应用六、SVD降维的局限性 一、SVD降维的基本原理 SVD是线性代数中的一种技术,它将一个矩阵A分解为三个矩阵的乘积:A = UΣV^T。其中,U和V是正交矩阵,Σ是对角矩阵,对角线上的元素称为奇异值。这些奇异值表示了矩阵A在各个方向上的“重要性”或“能量”。 在降维过程中,

奇异值与特征值基础

一、奇异值与特征值基础知识:     特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧:    1)特征值:     如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:     这时候λ就被称为特征向量v对应的特征值,一个

[干货汇总]LSA及SVD介绍

1. 前言 近期在看关于NER(Named Entity Recognition)的paper,里面涉及到的几个机器学习的算法,需要学习一下,在网上看了一些相关干货,汇总一下前人智慧。 首先贴出几篇写的还不错的blog blog1 LSA潜在语义分析 该blog是在Wiki中翻译过来,翻译的反正比我看原文理解的好,进行初步了解还是不错的。 blog2 SVD矩阵奇异值分解 &&