MIT_线性代数笔记:第 28 讲 相似矩阵和若尔当标准型

2024-01-25 21:28

本文主要是介绍MIT_线性代数笔记:第 28 讲 相似矩阵和若尔当标准型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

  • 正定矩阵 A T A A^TA ATA
  • 相似矩阵 Similar matrices
    • 特征值互不相同 Distinct eigenvalues
    • 重特征值 Repeated eigenvalues
  • 若尔当标准型 Jordan form

本讲介绍相似矩阵,这些内容以及奇异值分解是线性代数最核心的概念。

正定矩阵 A T A A^TA ATA

若矩阵 A 满足对任意向量 x≠0 均有 x T A x > 0 x^TAx>0 xTAx>0,则称矩阵为正定矩阵,可以通过特征值、主元和行列式的办法来判断矩阵的正定性。

正定矩阵来自于最小二乘问题。有大量的实际问题用到了长方形矩阵,而最小二乘问题中用到了长方形矩阵的积 A T A A^TA ATA,它是正定矩阵。

正定矩阵 A 是对称矩阵,它的逆矩阵 A − 1 A^{ -1} A1也是正定矩阵,逆矩阵的特征值是原矩阵的倒数,因此也都是正数。若矩阵 A 和 B 都是正定矩阵,则 A+B 也是正定矩阵: x T A x > 0 x^TAx>0 xTAx>0 x T B x > 0 x^TBx>0 xTBx>0,则有 x T ( A + B ) x > 0 x^T(A+B)x>0 xT(A+B)x>0

如果 A 是一个 m x n 长方形矩阵,则 A T A A^TA ATA 是对称方阵。通过讨论 x T ( A T A ) x x^T(A^TA)x xT(ATA)x 的正负可以确认它是正定矩阵: x T ( A T A ) x = ( A x ) T ( A x ) = ∣ A x ∣ 2 ≥ 0 x^T(A^TA)x=(Ax)^T(Ax)= \begin{vmatrix} Ax \end{vmatrix}^2≥0 xT(ATA)x=(Ax)T(Ax)= Ax 20。当且仅当 Ax=0 时,表达式为 0。当矩阵 A 的各列线性无关时,即矩阵为列满秩 r=n,A 的零空间只有零向量,即此条件下仅有零向量,满足 x T ( A T A ) x x^T(A^TA)x xT(ATA)x=0。因此矩阵列满秩时, A T A A^TA ATA 是正定矩阵。正定矩阵将之前的知识点串联起来。

相似矩阵 Similar matrices

A 和 B 均是 n x n 方阵,若存在可逆矩阵 M,使得 B= M − 1 A M M^{-1}AM M1AM,则 A 和 B 为相似矩阵。

特征值互不相同 Distinct eigenvalues

若矩阵 A 具有 n 个线性无关的特征向量,可以对角化得到 S − 1 A S = Λ S^{-1}AS =Λ S1AS=Λ,则 A 相似于 Λ,这里的 M 是特征向量矩阵 S。如果将 M 取其它可逆矩阵,可以得到和 A相似的另一矩阵 B,实际上这样可以定义一类矩阵,Λ 是其中最简洁的一个。

例: A = [ 2 1 1 2 ] , 则 Λ = [ 3 0 0 1 ] 例:A=\begin{bmatrix} 2&1\\1&2 \end{bmatrix},则 Λ=\begin{bmatrix} 3&0\\0&1 \end{bmatrix} 例:A=[2112],Λ=[3001],而取另一 M,则有

B = [ 1 − 4 0 1 ] [ 2 1 1 2 ] [ 1 4 0 1 ] = [ − 2 − 15 1 6 ] B=\begin{bmatrix} 1&-4\\0&1 \end{bmatrix}\begin{bmatrix} 2&1\\1&2 \end{bmatrix}\begin{bmatrix} 1&4\\0&1 \end{bmatrix}=\begin{bmatrix} -2&-15\\1&6 \end{bmatrix} B=[1041][2112][1041]=[21156]

相似矩阵最重要的特性是:相似矩阵具有相同的特征值。事实上,所有特征值为 3 和 1 的二阶矩阵都是 A 的相似矩阵。

证明矩阵 A 的相似矩阵 B = M − 1 A M B=M^{-1}AM B=M1AM,具有和矩阵 A 相同的特征值λ:矩阵 A具有的特征值λ,即存在特征向量 x 满足 Ax=λx。则有:
A M M − 1 x = λ x M − 1 A M M − 1 x = λ M − 1 x B M − 1 x = λ M − 1 x AMM^{-1}x =λx \\ M^{-1}AMM^{-1}x =λM^{-1}x\\ BM^{-1}x =λM^{-1}x AMM1x=λxM1AMM1x=λM1xBM1x=λM1x
即矩阵具有特征值λ,且特征向量为 M − 1 x M^{-1}x M1x
因此,相似矩阵具有相同的特征值,并且线性无关的特征向量的个数相同,但是特征向量往往不同。如果矩阵 A 的特征值互不相等 λ 1 ≠ λ 2 ≠ … … ≠ λ n λ_1≠λ_2≠……≠λ_n λ1=λ2=……=λn,而与另一个矩阵 B 的特征值完全相同 λ 1 = λ 1 ′ 、 λ 2 = λ 2 ′ … … λ n = λ n ′ λ_1=λ_1'、λ2=λ_2'……λn=λ_n' λ1=λ1λ2=λ2……λn=λn,则它们与相同的对角矩阵 Λ 相似。

重特征值 Repeated eigenvalues

如果矩阵有重特征值,则可能无法进行对角化。 例:二阶矩阵有重特征值 λ 1 = λ 2 = 4 λ_1=λ_2=4 λ1=λ2=4

第一类: [ 4 0 0 4 ] \begin{bmatrix} 4&0\\0&4 \end{bmatrix} [4004] 只与自己相似, M − 1 [ 4 0 0 4 ] M = 4 M − 1 I M = [ 4 0 0 4 ] M^{-1}\begin{bmatrix} 4&0\\0&4 \end{bmatrix}M=4M^{-1}IM = \begin{bmatrix} 4&0\\0&4 \end{bmatrix} M1[4004]M=4M1IM=[4004]。这个系列的相似矩阵仅包含其自身。

第二类包含其它所有的重特征值为 4 的矩阵:其中最简洁的是 [ 4 1 0 4 ] \begin{bmatrix} 4&1\\0&4 \end{bmatrix} [4014],元素 1的位置换上其它数值仍然是相似矩阵。这个最优形式称为若尔当(Jordan form)标准型。有了这个理论,就可以处理不可对角化的矩阵,完成近似的“对角化”转化为若尔当标准型进行处理。

[ 4 1 0 4 ] \begin{bmatrix} 4&1\\0&4 \end{bmatrix} [4014]相似的矩阵,迹为 8,行列式为 16,因此我们可以构造出很多相似矩阵: [ 5 1 − 1 3 ] , [ 4 0 17 4 ] , [ a ∗ ∗ 8 − a ] \begin{bmatrix} 5&1\\-1&3 \end{bmatrix},\begin{bmatrix} 4&0\\17&4 \end{bmatrix},\begin{bmatrix} a&*\\*&8-a \end{bmatrix} [5113],[41704],[a8a]……它们都不能对角化(因为若可以对角化则按照特征值可知结果为 4I,而 4I 只与自己相似)。

若尔当标准型 Jordan form

更复杂的情况,一个四阶矩阵具有重特征值 0, λ 1 = λ 2 = λ 3 = λ 4 = 0 λ_1=λ_2=λ_3=λ_4=0 λ1=λ2=λ3=λ4=0

A = [ 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 ] A=\begin{bmatrix} 0&1&0&0\\0&0&1&0\\0&0&0&0\\0&0&0&0 \end{bmatrix} A= 0000100001000000 它的秩为 2,因此其零空间的维数为 4-2=2,而零空间的向量就是矩阵的特征向量,满足 Ax=0x,所以矩阵 A 只有两个特征向量。若尔当指出上对角线每增加一个 1,矩阵就减掉一个特征向量,本例中特征向量数为 4-2=2。

矩阵 B = [ 0 1 7 0 0 0 1 0 0 0 0 0 0 0 0 0 ] 矩阵B=\begin{bmatrix} 0&1&7&0\\0&0&1&0\\0&0&0&0\\0&0&0&0 \end{bmatrix} 矩阵B= 0000100071000000 ,与矩阵 A = [ 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 ] A=\begin{bmatrix} 0&1&0&0\\0&0&1&0\\0&0&0&0\\0&0&0&0 \end{bmatrix} A= 0000100001000000 为相似矩阵。

矩阵 C = [ 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 ] 矩阵C=\begin{bmatrix} 0&1&0&0\\0&0&0&0\\0&0&0&1\\0&0&0&0 \end{bmatrix} 矩阵C= 0000100000000010 ,与矩阵 A = [ 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 ] A=\begin{bmatrix} 0&1&0&0\\0&0&1&0\\0&0&0&0\\0&0&0&0 \end{bmatrix} A= 0000100001000000 并不是相似矩阵,两者具有不同的若尔当块。

若尔当块形如 J i = [ λ i 1 0 . . . 0 0 λ i 1 . . . . . . 0 0 . . . . . . 0 . . . . . . . . . . . . 1 0 0 . . . 0 λ i ] J_i=\begin{bmatrix} λ_i&1&0&...&0\\0&λ_i&1&...&...\\0&0&...&...&0\\...&...&...&...&1\\0&0&...&0&λ_i \end{bmatrix} Ji= λi00...01λi0...001.....................00...01λi ,对角线上为重特征值 λ i λ_i λi,上对角线为1,其它位置的元素均为 0,每个若尔当块只有 1 个特征向量。若干个若尔当块可以拼成一个若尔当矩阵。

块可以拼成一个若尔当矩阵。

若尔当矩阵: J = [ J 1 0 . . . 0 0 J 2 . . . 0 . . . . . . . . . . . . 0 0 . . . J d ] J=\begin{bmatrix} J_1&0&...&0\\0&J_2&...&0\\...&...&...&...\\0&0&...&J_d \end{bmatrix} J= J10...00J2...0............00...Jd

两个矩阵具有相同的特征值和特征向量个数,但是其若尔当块的尺寸不同,两者也并不是相似矩阵。如前述矩阵 A 与 B 并不相似。
若尔当理论:任意 n 阶矩阵 A 都与一个若尔当矩阵 J 相似。若尔当矩阵中的每一个若尔当块对应一个特征向量。若矩阵具有 n 个不同的特征向量,则可以对角化,此时其若尔当标准型 J 就是对角矩阵 Λ。若出现重特征值,则特征向量个数变少。

这篇关于MIT_线性代数笔记:第 28 讲 相似矩阵和若尔当标准型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/644663

相关文章

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi

取得 Git 仓库 —— Git 学习笔记 04

取得 Git 仓库 —— Git 学习笔记 04 我认为, Git 的学习分为两大块:一是工作区、索引、本地版本库之间的交互;二是本地版本库和远程版本库之间的交互。第一块是基础,第二块是难点。 下面,我们就围绕着第一部分内容来学习,先不考虑远程仓库,只考虑本地仓库。 怎样取得项目的 Git 仓库? 有两种取得 Git 项目仓库的方法。第一种是在本地创建一个新的仓库,第二种是把其他地方的某个