高等代数复习:线性映射

2024-04-09 03:36

本文主要是介绍高等代数复习:线性映射,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 线性映射
    • 基本定义和记号
    • 线性映射与矩阵
    • 线性映射的像与核
    • 不变子空间

本篇文章适合个人复习翻阅,不建议新手入门使用

线性映射

基本定义和记号

定义:线性映射
设数域 K \mathbb{K} K 上的线性空间 U , V U,V U,V,映射 φ : V → U \varphi:V\to U φ:VU 满足:

  1. φ ( α + β ) = φ ( α ) + φ ( β ) , α , β ∈ V \varphi(\alpha+\beta)=\varphi(\alpha)+\varphi(\beta),\alpha,\beta\in V φ(α+β)=φ(α)+φ(β),α,βV
  2. φ ( k α ) = k φ ( α ) , k ∈ K , α ∈ V \varphi(k\alpha)=k\varphi(\alpha),k\in\mathbb{K},\alpha\in V φ(kα)=kφ(α),kK,αV

则称 φ \varphi φ V → U V\to U VU 的线性映射;若 φ \varphi φ 是双射,则称 φ \varphi φ 是线性同构

命题:线性映射全体构成的线性空间
L ( V , U ) \mathcal{L}(V,U) L(V,U) 表示从 V V V U U U 的线性映射全体,则在映射的加法和数乘下成为一个线性空间

注:

  • V → K V\to \mathbb{K} VK 的线性映射称为 V V V 上的线性函数
  • V V V 上所有线性函数构成的线性空间称为 V V V 的共轭空间,记为 V ∗ V^* V
  • V V V 有限维, V V V 的共轭空间也称对偶空间

命题:矩阵全体构成的线性空间
M m × n ( K ) M_{m\times n}(\mathbb{K}) Mm×n(K) 表示 m × n m\times n m×n 的矩阵全体,则在矩阵的加法和数乘下成为一个线性空间

注:若无声明,本节以下均约定记号:

  • U , V U,V U,V 是数域 K \mathbb{K} K 上的有限维线性空间, dim ⁡ V = n , dim ⁡ U = m \dim V=n,\dim U=m dimV=n,dimU=m
  • { e 1 , e 2 , … , e n } \{e_1,e_2,\dots,e_n\} {e1,e2,,en} V V V 的一组基, { f 1 , f 2 , … , f m } \{f_1,f_2,\dots,f_m\} {f1,f2,,fm} U U U 的一组基
  • 记号 L ( V , U ) , M m × n ( K ) \mathcal{L}(V,U),M_{m\times n}(\mathbb{K}) L(V,U),Mm×n(K)
  • 映射 φ , ψ ∈ L ( V , U ) \varphi,\psi\in\mathcal{L}(V,U) φ,ψL(V,U),矩阵 A , B ∈ M m × n ( K ) A,B\in M_{m\times n}(\mathbb{K}) A,BMm×n(K)

线性映射与矩阵

命题

  • ψ ( e i ) = φ ( e i ) \psi(e_i)=\varphi(e_i) ψ(ei)=φ(ei),则 ψ = φ \psi=\varphi ψ=φ
  • 给定 U U U n n n 个向量 β 1 , β 2 , … , β n \beta_1,\beta_2,\dots,\beta_n β1,β2,,βn,有且仅有一个 φ ∈ L ( V , U ) \varphi\in\mathcal{L}(V,U) φL(V,U) 满足 φ ( e i ) = β i \varphi(e_i)=\beta_i φ(ei)=βi

注:该命题说的是要确定 U , V U,V U,V 之间的一个线性映射完全由它在基上的作用决定

定义:给定基下的矩阵

{ φ ( e 1 ) = a 11 f 1 + a 12 f 2 + ⋯ + a 1 m f m φ ( e 2 ) = a 21 f 1 + a 22 f 2 + ⋯ + a 2 m f m ⋯ φ ( e n ) = a n 1 f 1 + a n 2 f 2 + ⋯ + a n m f m \begin{cases} \varphi(e_1)=a_{11}f_1+a_{12}f_2+\cdots+a_{1m}f_m\\ \varphi(e_2)=a_{21}f_1+a_{22}f_2+\cdots+a_{2m}f_m\\ \cdots\\ \varphi(e_n)=a_{n1}f_1+a_{n2}f_2+\cdots+a_{nm}f_m\\ \end{cases} φ(e1)=a11f1+a12f2++a1mfmφ(e2)=a21f1+a22f2++a2mfmφ(en)=an1f1+an2f2++anmfm
则称系数矩阵 A A A 的转置为 φ \varphi φ 在给定基 { e 1 , e 2 , … , e n } \{e_1,e_2,\dots,e_n\} {e1,e2,,en} { f 1 , f 2 , … , f m } \{f_1,f_2,\dots,f_m\} {f1,f2,,fm} 下的表示矩阵

命题
α ∈ V \alpha\in V αV 在基 { e 1 , e 2 , … , e n } \{e_1,e_2,\dots,e_n\} {e1,e2,,en} 下的坐标为 λ = ( λ 1 , λ 2 , … , λ n ) ′ \lambda=(\lambda_1,\lambda_2,\dots,\lambda_n)' λ=(λ1,λ2,,λn),则 φ ( α ) \varphi(\alpha) φ(α) { f 1 , f 2 , … , f m } \{f_1,f_2,\dots,f_m\} {f1,f2,,fm} 下的坐标 μ = A ′ λ \mu=A'\lambda μ=Aλ 当且仅当上一定义中的方程组成立

定理:线性映射空间与矩阵空间的同构
L ( V , U ) \mathcal{L}(V,U) L(V,U) M m × n ( K ) M_{m\times n}(\mathbb{K}) Mm×n(K) 同构,同构映射为 T : L ( V , U ) → M m × n ( K ) , T ( φ ) = A T:\mathcal{L}(V,U)\to M_{m\times n}(\mathbb{K}),T(\varphi)=A T:L(V,U)Mm×n(K),T(φ)=A其中 A A A φ \varphi φ 在给定基下的矩阵

命题
记线性同构:
η 1 : V → K n , η 1 ( a 1 e 1 + ⋯ + a n e n ) = ( a 1 , … , a n ) ′ \eta_1:V\to\mathbb{K}_n,\eta_1(a_1e_1+\cdots+a_ne_n)=(a_1,\dots,a_n)' η1:VKn,η1(a1e1++anen)=(a1,,an)类似地
η 2 : U → K m , η 2 ( b 1 f 1 + ⋯ + b m f m ) = ( b 1 , … , b m ) ′ \eta_2:U\to\mathbb{K}_m,\eta_2(b_1f_1+\cdots+b_mf_m)=(b_1,\dots,b_m)' η2:UKm,η2(b1f1++bmfm)=(b1,,bm) φ ∈ L ( V , U ) , T ( φ ) = A \varphi\in\mathcal{L}(V,U),T(\varphi)=A φL(V,U),T(φ)=A φ \varphi φ 在给定基下的表示矩阵,设映射 φ A : K n → K m , φ ( x ) = A x \varphi_A:\mathbb{K}_n\to\mathbb{K}_m,\varphi(x)=Ax φA:KnKm,φ(x)=Ax则有 η 2 φ = φ A η 1 \eta_2\varphi=\varphi_A\eta_1 η2φ=φAη1

注:该命题说明了线性映射和矩阵的某种等价性,即先做线性映射再取坐标等价于先取坐标再左乘表示矩阵

证明思路
只需验证 η 2 φ ( e i ) = φ A η 1 ( e i ) \eta_2\varphi(e_i)=\varphi_A\eta_1(e_i) η2φ(ei)=φAη1(ei)

命题
设同构映射 T : L ( V , U ) → M m × n ( K ) , T ( φ ) = A T:\mathcal{L}(V,U)\to M_{m\times n}(\mathbb{K}),T(\varphi)=A T:L(V,U)Mm×n(K),T(φ)=A W W W K \mathbb{K} K 上的线性空间, { g 1 , g 2 , … , g p } \{g_1,g_2,\dots,g_p\} {g1,g2,,gp} W W W 的一组基, ψ ∈ L ( U , W ) \psi\in\mathscr{L}(U,W) ψL(U,W),则 T ( ψ φ ) = T ( ψ ) T ( φ ) T(\psi\varphi)=T(\psi)T(\varphi) T(ψφ)=T(ψ)T(φ)

命题
φ ∈ L ( V ) \varphi\in\mathcal{L}(V) φL(V) { e 1 , e 2 , … , e n } \{e_1,e_2,\dots,e_n\} {e1,e2,,en} { f 1 , f 2 , … , f n } \{f_1,f_2,\dots,f_n\} {f1,f2,,fn} V V V 的两组基且从 { e 1 , e 2 , … , e n } \{e_1,e_2,\dots,e_n\} {e1,e2,,en} { f 1 , f 2 , … , f n } \{f_1,f_2,\dots,f_n\} {f1,f2,,fn} 的过渡矩阵为 P P P,若 φ \varphi φ 在基 { e 1 , e 2 , … , e n } \{e_1,e_2,\dots,e_n\} {e1,e2,,en} 下的表示矩阵为 A A A,在 { f 1 , f 2 , … , f n } \{f_1,f_2,\dots,f_n\} {f1,f2,,fn} 下的表示矩阵为 B B B,则
B = P − 1 A P B=P^{-1}AP B=P1AP

注:该命题说的是同一线性映射在不同基下的矩阵相似

证明
任设 α ∈ V \alpha\in V αV
α = λ 1 e 1 + λ 2 e 2 + ⋯ + λ n e n = μ 1 f 1 + μ 2 f 2 + ⋯ + μ n f n \alpha=\lambda_1e_1+\lambda_2e_2+\cdots+\lambda_ne_n=\mu_1f_1+\mu_2f_2+\cdots+\mu_nf_n α=λ1e1+λ2e2++λnen=μ1f1+μ2f2++μnfn
( λ 1 , λ 2 , … , λ n ) ′ = P ( μ 1 , μ 2 , … , μ n ) (\lambda_1,\lambda_2,\dots,\lambda_n)'=P(\mu_1,\mu_2,\dots,\mu_n) (λ1,λ2,,λn)=P(μ1,μ2,,μn)又设
φ ( α ) = ξ 1 e 1 + ξ 2 e 2 + ⋯ + ξ n e n = η 1 f 1 + η 2 f 2 + ⋯ + η n f n \varphi(\alpha)=\xi_1e_1+\xi_2e_2+\cdots+\xi_ne_n=\eta_1f_1+\eta_2f_2+\cdots+\eta_nf_n φ(α)=ξ1e1+ξ2e2++ξnen=η1f1+η2f2++ηnfn则由定义
( ξ 1 , ξ 2 , … , ξ n ) ′ = A ( λ 1 , λ 2 , … , λ n ) ′ (\xi_1,\xi_2,\dots,\xi_n)'=A(\lambda_1,\lambda_2,\dots,\lambda_n)' (ξ1,ξ2,,ξn)=A(λ1,λ2,,λn) ( η 1 , η 2 , … , η n ) ′ = B ( μ 1 , μ 2 , … , μ n ) ′ (\eta_1,\eta_2,\dots,\eta_n)'=B(\mu_1,\mu_2,\dots,\mu_n)' (η1,η2,,ηn)=B(μ1,μ2,,μn)
( ξ 1 , ξ 2 , … , ξ n ) ′ = P ( η 1 , η 2 , … , η n ) ′ (\xi_1,\xi_2,\dots,\xi_n)'=P(\eta_1,\eta_2,\dots,\eta_n)' (ξ1,ξ2,,ξn)=P(η1,η2,,ηn)
P B ( μ 1 , μ 2 , … , μ n ) ′ = A P ( μ 1 , μ 2 , … , μ n ) ′ PB(\mu_1,\mu_2,\dots,\mu_n)'=AP(\mu_1,\mu_2,\dots,\mu_n)' PB(μ1,μ2,,μn)=AP(μ1,μ2,,μn)由任意性,得 P B = A P PB=AP PB=AP

线性映射的像与核

定义:像与核
φ \varphi φ 的全体像元素称为 φ \varphi φ 的像,记为 I m φ Im \varphi Imφ
φ \varphi φ 映为零的元素全体称为 φ \varphi φ 的核,记为 K e r φ Ker\varphi Kerφ

性质

  • I m φ ∈ U Im\varphi\in U ImφU K e r φ ∈ V Ker\varphi\in V KerφV
  • I m φ Im \varphi Imφ U U U 的子空间, K e r φ Ker\varphi Kerφ V V V 的子空间

命题
φ \varphi φ 是满射当且仅当 I m φ = U Im\varphi=U Imφ=U φ \varphi φ 是单射当且仅当 K e r φ = 0 Ker\varphi=0 Kerφ=0

定理
φ \varphi φ 在给定基下的矩阵为 A A A,则 dim ⁡ I m φ = r a n k ( A ) , dim ⁡ K e r φ = n − r a n k ( A ) \dim Im\varphi=rank(A),\dim Ker\varphi=n-rank(A) dimImφ=rank(A),dimKerφ=nrank(A)

证明思路
先证 η 1 ( K e r φ ) ⊂ K e r φ A , η 2 ( I m φ ) ⊂ I m φ A \eta_1(Ker\varphi)\subset Ker\varphi_A,\eta_2(Im\varphi)\subset Im\varphi_A η1(Kerφ)KerφA,η2(Imφ)ImφA
将线性同构 η 1 , η 2 \eta_1,\eta_2 η1,η2 限制为单映射 η 1 ′ : K e r φ → K e r φ A , η 2 ′ : I m φ → I m φ A \eta_1':Ker\varphi\to Ker\varphi_A,\eta_2':Im\varphi\to Im\varphi_A η1:KerφKerφA,η2:ImφImφA,可证 η 1 ′ , η 2 ′ \eta_1',\eta_2' η1,η2 是满射,从而是线性同构
再证 I m φ Im\varphi Imφ 即为 A A A 的列向量张成的空间, K e r φ Ker\varphi Kerφ A x = 0 Ax=0 Ax=0 的解空间

推论:(维数公式)
dim ⁡ I m φ + dim ⁡ K e r φ = dim ⁡ V \dim Im\varphi+\dim Ker\varphi=\dim V dimImφ+dimKerφ=dimV

推论
下列等价

  • n n n 维线性空间 V V V 上的线性变换 φ \varphi φ 是可逆变换
  • φ \varphi φ 是单映射或满映射
  • φ \varphi φ在任意一组基下的表示矩阵是可逆阵

像空间和核空间的计算
像空间:求表示矩阵的列向量组的极大无关组,即得 I m φ Im\varphi Imφ 的一组基
核空间:求表示矩阵作为系数矩阵的齐次线性方程组的基础解系,即得 K e r φ Ker\varphi Kerφ 的一组基

不变子空间

定义:不变子空间
U U U V V V 的子空间,若 φ ( U ) ⊂ U \varphi(U)\subset U φ(U)U,则称 U U U φ \varphi φ 的不变子空间;此时称 φ \varphi φ U U U 上的限制 φ U \varphi_{U} φU φ \varphi φ 诱导的线性变换

性质

  • 零空间和全空间均为不变子空间,称为平凡的不变子空间
  • 核空间和像空间均为不变子空间

定理:不变子空间和表示矩阵的关系
U U U V V V 上线性变换 φ \varphi φ 的不变子空间,且设 U U U 的基为 { e 1 , … , e r } \{e_1,\dots,e_r\} {e1,,er},将其扩充为 V V V 的一组基 { e 1 , … , e r , e r + 1 , … , e n } \{e_1,\dots,e_r,e_{r+1},\dots,e_n\} {e1,,er,er+1,,en},则 φ \varphi φ 在这组基下的表示矩阵形如
( a 11 ⋯ a r 1 a r + 1 , 1 ⋯ a n 1 ⋮ ⋮ ⋮ ⋮ a 1 r ⋯ a r r a r + 1 , r ⋯ a n r 0 ⋯ 0 a r + 1 , r + 1 ⋯ a n , r + 1 ⋮ ⋮ ⋮ ⋮ 0 ⋯ 0 a r + 1 , n ⋯ a n n ) \begin{pmatrix} a_{11}&\cdots&a_{r1}&a_{r+1,1}&\cdots&a_{n1}\\ \vdots&&\vdots&\vdots&&\vdots\\ a_{1r}&\cdots&a_{rr}&a_{r+1,r}&\cdots&a_{nr}\\ 0&\cdots&0&a_{r+1,r+1}&\cdots&a_{n,r+1}\\ \vdots&&\vdots&\vdots&&\vdots\\ 0&\cdots&0&a_{r+1,n}&\cdots&a_{nn}\\ \end{pmatrix} a11a1r00ar1arr00ar+1,1ar+1,rar+1,r+1ar+1,nan1anran,r+1ann

推论
V = V 1 ⊕ V 2 V=V_1\oplus V_2 V=V1V2 V 1 , V 2 V_1,V_2 V1,V2 都为线性变换 φ \varphi φ 的不变子空间,又 { e 1 , … , e r } \{e_1,\dots,e_r\} {e1,,er} V 1 V_1 V1 的基, { e r + 1 , … , e n } \{e_{r+1},\dots,e_n\} {er+1,,en} V 2 V_2 V2 的基,则 φ \varphi φ 在基 { e 1 , e 2 , … , e n } \{e_1,e_2,\dots,e_n\} {e1,e2,,en} 下的表示矩阵为分块对角阵
( A r O O A n − r ) \begin{pmatrix} A_r&O\\ O&A_{n-r}\\ \end{pmatrix} (ArOOAnr)

参考书:《高等代数学》谢启鸿 姚慕生 吴泉水 编著

这篇关于高等代数复习:线性映射的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/887079

相关文章

线性因子模型 - 独立分量分析(ICA)篇

序言 线性因子模型是数据分析与机器学习中的一类重要模型,它们通过引入潜变量( latent variables \text{latent variables} latent variables)来更好地表征数据。其中,独立分量分析( ICA \text{ICA} ICA)作为线性因子模型的一种,以其独特的视角和广泛的应用领域而备受关注。 ICA \text{ICA} ICA旨在将观察到的复杂信号

【408数据结构】散列 (哈希)知识点集合复习考点题目

苏泽  “弃工从研”的路上很孤独,于是我记下了些许笔记相伴,希望能够帮助到大家    知识点 1. 散列查找 散列查找是一种高效的查找方法,它通过散列函数将关键字映射到数组的一个位置,从而实现快速查找。这种方法的时间复杂度平均为(

✨机器学习笔记(二)—— 线性回归、代价函数、梯度下降

1️⃣线性回归(linear regression) f w , b ( x ) = w x + b f_{w,b}(x) = wx + b fw,b​(x)=wx+b 🎈A linear regression model predicting house prices: 如图是机器学习通过监督学习运用线性回归模型来预测房价的例子,当房屋大小为1250 f e e t 2 feet^

【高等代数笔记】线性空间(一到四)

3. 线性空间 令 K n : = { ( a 1 , a 2 , . . . , a n ) ∣ a i ∈ K , i = 1 , 2 , . . . , n } \textbf{K}^{n}:=\{(a_{1},a_{2},...,a_{n})|a_{i}\in\textbf{K},i=1,2,...,n\} Kn:={(a1​,a2​,...,an​)∣ai​∈K,i=1,2,...,n

带头结点的线性链表的基本操作

持续了好久,终于有了这篇博客,链表的操作需要借助图像模型进行反复学习,这里尽可能的整理并记录下自己的思考,以备后面复习,和大家分享。需要说明的是,我们从实际应用角度出发重新定义了线性表。 一. 定义 从上一篇文章可以看到,由于链表在空间的合理利用上和插入、删除时不需要移动等优点,因此在很多场合下,它是线性表的首选存储结构。然而,它也存在某些实现的缺点,如求线性表的长度时不如顺序存储结构的

计算机基础知识复习9.6

点对点链路:两个相邻节点通过一个链路相连,没有第三者 应用:PPP协议,常用于广域网 广播式链路:所有主机共享通信介质 应用:早期的总线以太网,无线局域网,常用于局域网 典型拓扑结构:总线型 星型(逻辑总线型) 介质访问控制  静态划分信道 信道划分介质访问控制 频分多路复用FDM 时分多路复用TDM 波分多路复用WDM 码分多路复用CDM 动态分配信道 轮询访问介质访问控

浙大数据结构:02-线性结构4 Pop Sequence

这道题我们采用数组来模拟堆栈和队列。 简单说一下大致思路,我们用栈来存1234.....,队列来存输入的一组数据,栈与队列进行匹配,相同就pop 机翻 1、条件准备 stk是栈,que是队列。 tt指向的是栈中下标,front指向队头,rear指向队尾。 初始化栈顶为0,队头为0,队尾为-1 #include<iostream>using namespace std;#defi

深度学习与大模型第3课:线性回归模型的构建与训练

文章目录 使用Python实现线性回归:从基础到scikit-learn1. 环境准备2. 数据准备和可视化3. 使用numpy实现线性回归4. 使用模型进行预测5. 可视化预测结果6. 使用scikit-learn实现线性回归7. 梯度下降法8. 随机梯度下降和小批量梯度下降9. 比较不同的梯度下降方法总结 使用Python实现线性回归:从基础到scikit-learn 线性

C#中的各种画刷, PathGradientBrush、线性渐变(LinearGradientBrush)和径向渐变的区别

在C#中,画刷(Brush)是用来填充图形(如形状或文本)内部区域的对象。在.NET框架中,画刷是System.Drawing命名空间的一部分,通常用于GDI+绘图操作。以下是一些常用的画刷类型: SolidBrush:用于创建单色填充的画刷。HatchBrush:用于创建具有图案填充的画刷。TextureBrush:用于创建具有图像纹理填充的画刷。LinearGradientBrush:用于创

(感知机-Perceptron)—有监督学习方法、非概率模型、判别模型、线性模型、参数化模型、批量学习、核方法

定义 假设输入空间(特征空间)是 χ \chi χ ⊆ R n \subseteq R^n ⊆Rn,输出空间是y = { + 1 , − 1 } =\{+1,-1 \} ={+1,−1} 。输入 x ∈ χ x \in \chi x∈χ表示实例的特征向量,对应于输入空间(特征空间)的点;输出 y ∈ y \in y∈y表示实例的类别。由输入空间到输出空间的如下函数: f ( x ) = s