线性代数笔记21--对角化、A的幂

2024-03-18 19:36
文章标签 21 笔记 线性代数 角化

本文主要是介绍线性代数笔记21--对角化、A的幂,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.对角化

对于矩阵 A A A,我们假设有 n n n个向量。
将他们放置在一起组成矩阵 S S S

A S = A [ X 1 X 2 . . . X n ] = [ λ 1 X 1 λ 2 X 2 . . . λ n X n ] = [ X 1 X 2 . . . X n ] [ λ 1 λ 2 λ 3 ⋱ λ n ] AS=A[X_1X_2...X_n]=[\lambda_1X_1\ \lambda_2X_2...\lambda_nX_n]=[X_1X_2...X_n] \begin{bmatrix} \lambda_1& &&&\\ &\lambda_2&&&\\ &&\lambda_3&&\\ &&&\ddots&\\ &&&&\lambda_n \end{bmatrix} AS=A[X1X2...Xn]=[λ1X1 λ2X2...λnXn]=[X1X2...Xn] λ1λ2λ3λn
我们把 n n n个特征值的方程称为
Λ \Lambda\\ Λ

A S = S Λ AS=S\Lambda AS=SΛ
S S S可逆,即使 A A A存在 n n n个独立特征根。
A = S Λ S − 1 A=S\Lambda S^{-1} A=SΛS1
这种形式叫做施密特格拉姆正交化。
有什么用呢?可以来简化幂次的运算罢了。

假设 A A A有特征值 λ \lambda λ
A X = λ X A 2 X = A A X = A λ X = λ A X = λ λ X = λ 2 X AX=\lambda X \\ A^{2} X=AAX= A\lambda X=\lambda AX=\lambda \lambda X=\lambda^{2}X AX=λXA2X=AAX=AλX=λAX=λλX=λ2X
所以 A k A^{k} Ak n n n个特征值对应 A A A n n n个特征值的 k k k次方。

对于 A 2 A^2 A2
A 2 = S Λ S − 1 S Λ S − 1 = S Λ 2 S − 1 A^2=S\Lambda S^{-1}S\Lambda S^{-1}=S\Lambda^{2}S^{-1} A2=SΛS1SΛS1=SΛ2S1
再推广可得
A k = S Λ k S − 1 A^{k}=S\Lambda^{k}S^{-1} Ak=SΛkS1

2. A的幂

A k → 0 a s k → ∞ A^{k} \to 0\ as\ k\to \infin Ak0 as k
这样的矩阵我们称为稳定的矩阵。

矩阵稳定条件,若有 n n n个独立特征向量;
即可以施密特格拉姆正交化
A = S Λ S − 1 A=S\Lambda S^{-1} A=SΛS1
需要满足
∀ ∣ λ i ∣ < 1 , 1 ≤ i ≤ n \forall \lvert \lambda_i\rvert \lt1, 1 \le i \le n λi<1,1in

特征值与矩阵可正交化关系

  1. 如果矩阵 A A A存在 n n n个互不相同的特征值则, A A A必然有 n n n个独立的特征向量
  2. 如果矩阵 A A A存在重复的特征根,则 A A A可能但不一定存在 n n n个线性无关特征向量
    2.1举例子单位矩阵
    2.2 A = [ 2 1 0 2 ] , λ = 2 , X = [ 1 0 ] A=\begin{bmatrix} 2 & 1\\0 & 2\end{bmatrix},\lambda=2,X=\begin{bmatrix}1\\0\end{bmatrix} A=[2012],λ=2,X=[10]

3. A k A^{k} Ak的应用

引入
求解
u k + 1 = A u k u_{k+1}=Au_{k} uk+1=Auk
如果已知 u 0 u_0 u0,我们可以推导
u 1 = A u 0 u 2 = A u 1 = A 2 u 0 ⋯ u k = A k u 0 u_1=Au_0\\ u_2=Au_1=A^2u_0\\ \cdots\\ u_k=A^{k}u_0 u1=Au0u2=Au1=A2u0uk=Aku0
我们把 u 0 u_0 u0分解到 S S S的列空间上
u 0 = c 1 X 1 + c 2 X 2 + ⋯ + c n X n S c = u 0 u_0=c_1X_1+c_2X_2+\cdots+c_nX_{n}\\ Sc=u_0 u0=c1X1+c2X2++cnXnSc=u0
乘上 A A A
A u 0 = c 1 A X 1 + c A X 2 + ⋯ + c n X n Au_0=c_1AX_1+cAX_2+\cdots+c_nX_n Au0=c1AX1+cAX2++cnXn
化为 λ \lambda λ形式
A X k = λ k X k A u 0 = c 1 λ 1 X 1 + c 2 λ 2 X 2 + ⋯ + c n λ n X n AX_k=\lambda_kX_k\\ Au_0=c_1\lambda_1X_1+c_2\lambda_2X_2+\cdots+c_n\lambda_nX_n AXk=λkXkAu0=c1λ1X1+c2λ2X2++cnλnXn
重复上面两步 k k k次得到
A k + 1 u 0 = c 1 λ 1 k X 1 + c 2 λ 2 k X 2 + ⋯ + c n λ n k X n A k + 1 u 0 = Λ k S c = Λ k u 0 A^{k+1}u_0=c_1\lambda_1^{k}X_1+c_2\lambda_2^{k}X_2+\cdots+c_n\lambda_n^{k}X_n\\ A^{k+1}u_0=\Lambda^{k} Sc=\Lambda^{k}u_0 Ak+1u0=c1λ1kX1+c2λ2kX2++cnλnkXnAk+1u0=ΛkSc=Λku0

3.1 求解斐波拉契通项公式

F i b o n a c c i Fibonacci Fibonacci数列: 0 , 1 , 1 , 2 , 3 , 5 , 8 , 13 , 21 , 34 , ⋯ 0,1,1,2,3,5,8,13,21,34,\cdots 0,1,1,2,3,5,8,13,21,34,,求第 F 100 ? F_{100}? F100?
我们令
u k = [ F k + 1 F k ] u k + 1 = [ 1 1 1 0 ] u k u k + 1 = A k u 0 u_k=\begin{bmatrix} F_{k+1}\\ F_{k} \end{bmatrix}\\ u_{k+1}=\begin{bmatrix} 1 & 1\\ 1 & 0 \end{bmatrix} u_k\\ u_{k+1}=A^{k}u_0 uk=[Fk+1Fk]uk+1=[1110]ukuk+1=Aku0
根据数列我们可以知道
u 0 = [ 1 0 ] u_0=\begin{bmatrix} 1\\0 \end{bmatrix} u0=[10]
将它化成分散到 A A A的列空间上
u 0 = c 1 X 1 + c 2 X 2 + c 3 X 3 + ⋯ + c n X n u 0 = S c u_0=c_1X_1+c_2X_2+c_3X_3+\cdots+c_nX_n\\ u_0=Sc u0=c1X1+c2X2+c3X3++cnXnu0=Sc
将上式带入 u k + 1 = A k u 0 u_{k+1}=A^{k}u_0 uk+1=Aku0
u k + 1 = A k S c u_{k+1}=A^{k}Sc\\ uk+1=AkSc
A S = S Λ AS=S\Lambda AS=SΛ得到
u k + 1 = S Λ k c u_{k+1}=S\Lambda^{k}c uk+1=SΛkc
只需要求得特征向量和特征矩阵和将 u 0 u_0 u0放入 S S S列空间中即可求出值

特征值计算
d e t [ 1 − λ 1 1 − λ ] = 0 λ 2 − λ − 1 = 0 det\ \begin{bmatrix} 1 - \lambda & 1\\ 1 & -\lambda \end{bmatrix}=0\\ \lambda^2-\lambda-1=0 det [1λ11λ]=0λ2λ1=0
特征向量为
X = [ λ 1 ] X=\begin{bmatrix}\lambda \\ 1 \end{bmatrix} X=[λ1]
求得两个特征值为
λ 1 = 1 + 5 2 λ 2 = 1 − 5 2 \lambda_1=\frac{1+\sqrt{5}}{2}\\ \lambda_2=\frac{1-\sqrt{5}}{2} λ1=21+5 λ2=215
所以对应特征向量矩阵 S S S
S = [ 1 + 5 2 1 − 5 2 1 1 ] S=\begin{bmatrix} \frac{1+\sqrt{5}}{2} & \frac{1-\sqrt{5}}{2}\\ 1 & 1 \end{bmatrix} S=[21+5 1215 1]
再根据克拉默法则可求得 S c = u 0 Sc=u_0 Sc=u0 c c c
c = [ 1 5 − 1 5 ] c=\begin{bmatrix} \frac{1}{\sqrt{5}}\\ -\frac{1}{\sqrt{5}}\\ \end{bmatrix} c=[5 15 1]
特征值矩阵 Λ \Lambda Λ
Λ = [ 1 + 5 2 0 0 1 − 5 2 ] \Lambda=\begin{bmatrix} \frac{1+\sqrt{5}}{2} & 0\\ 0 &\frac{1-\sqrt{5}}{2} \\ \end{bmatrix} Λ=[21+5 00215 ]
对于我们构造的矩阵 u k + 1 u_{k+1} uk+1
u k + 1 = A k u 0 = S Λ k c = [ 1 + 5 2 1 − 5 2 1 1 ] [ ( 1 + 5 2 ) k 0 0 ( 1 − 5 2 ) k ] [ 1 5 − 1 5 ] = [ ( 1 + 5 2 ) k + 1 ( 1 − 5 2 ) k + 1 ( 1 + 5 2 ) k ( 1 − 5 2 ) k ] [ 1 5 − 1 5 ] = [ F k + 1 F k ] \begin{align} u_{k+1}=A^{k}u_0=S\Lambda^{k}c &= \begin{bmatrix} \frac{1+\sqrt{5}}{2} & \frac{1-\sqrt{5}}{2}\\ 1 & 1 \end{bmatrix} \begin{bmatrix} \big(\frac{1+\sqrt{5}}{2}\big)^{k} & 0\\ 0 &\big(\frac{1-\sqrt{5}}{2}\big)^{k} \\ \end{bmatrix} \begin{bmatrix} \frac{1}{\sqrt{5}}\\ -\frac{1}{\sqrt{5}}\\ \end{bmatrix} \nonumber\\ &= \begin{bmatrix} \big(\frac{1+\sqrt{5}}{2}\big)^{k+1} & \big(\frac{1-\sqrt{5}}{2}\big)^{k+1} \\ \big(\frac{1+\sqrt{5}}{2}\big)^{k} &\big(\frac{1-\sqrt{5}}{2}\big)^{k} \\ \end{bmatrix}\begin{bmatrix} \frac{1}{\sqrt{5}}\\ -\frac{1}{\sqrt{5}}\\ \end{bmatrix} \nonumber \\ &= \begin{bmatrix} F_{k+1} \\F_k \end{bmatrix}\nonumber \end{align} uk+1=Aku0=SΛkc=[21+5 1215 1][(21+5 )k00(215 )k][5 15 1]=[(21+5 )k+1(21+5 )k(215 )k+1(215 )k][5 15 1]=[Fk+1Fk]
由此可以得到 f i b o n a c c i fibonacci fibonacci的通项公式
F k = 1 5 [ ( 1 + 5 2 ) k − ( 1 − 5 2 ) k ] F_{k}=\frac{1}{\sqrt{5}} \big[ \big( \frac{1+\sqrt{5}}{2}\big)^{k} -\big(\frac{1-\sqrt{5}}{2}\big)^{k} \big] Fk=5 1[(21+5 )k(215 )k]

4. 勘误

Lec22视频32:34推导的公式
应为 S Λ k c 而非 Λ k S c u k + 1 = A k u 0 A S = S Λ u k + 1 = S Λ k c Λ S ≠ S Λ , Λ ≠ I ∧ Λ ≠ S − 1 应为S\Lambda^kc而非\Lambda^{k}Sc\\ u_{k+1}=A^{k}u_0\\ AS=S\Lambda\\ u_{k+1}= S\Lambda^{k}c\\ \Lambda S \ne S \Lambda, \Lambda \ne I \wedge \Lambda \ne S^{-1} 应为SΛkc而非ΛkScuk+1=Aku0AS=SΛuk+1=SΛkcΛS=SΛ,Λ=IΛ=S1

这篇关于线性代数笔记21--对角化、A的幂的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/823421

相关文章

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi

取得 Git 仓库 —— Git 学习笔记 04

取得 Git 仓库 —— Git 学习笔记 04 我认为, Git 的学习分为两大块:一是工作区、索引、本地版本库之间的交互;二是本地版本库和远程版本库之间的交互。第一块是基础,第二块是难点。 下面,我们就围绕着第一部分内容来学习,先不考虑远程仓库,只考虑本地仓库。 怎样取得项目的 Git 仓库? 有两种取得 Git 项目仓库的方法。第一种是在本地创建一个新的仓库,第二种是把其他地方的某个