线性代数学习笔记(二):线性变换的理解

2023-12-27 20:58

本文主要是介绍线性代数学习笔记(二):线性变换的理解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

线性代数学习笔记(二):线性变换的理解

文章目录

  • 线性代数学习笔记(二):线性变换的理解
    • 一、基变换与坐标变换
    • 二、 线性变换
      • 2.1 线性变换与基变换的不同
      • 2.2 线性变换的表示
      • 2.3 线性变换的分类
      • 2.4 线性变换与矩阵
      • 2.5 应用:线性代数观点看线性变换
        • 2.5.1 微分方程是线性变换
        • 2.5.2 傅里叶变换是基底变换
        • 2.5.3 相似矩阵
    • 三、线性空间的理解
    • 四、矩阵的理解

一、基变换与坐标变换

一个n维的线性空间V,可以有多组基底。
假设存在两组基底:老基底 = ( e ⃗ 1 , e ⃗ 2 , . . . , e ⃗ n ) =(\vec e_1,\vec e_2,...,\vec e_n) =(e 1,e 2,...,e n)
              新基底 = ( e ⃗ 1 ′ , e ⃗ 2 ′ , . . . , e ⃗ n ′ ) =(\vec e'_1,\vec e'_2,...,\vec e'_n) =(e 1,e 2,...,e n)
对于线性空间中一个元素 α ⃗ \vec \alpha α 可以被表示,如下图示:在这里插入图片描述也即元素 α ⃗ \vec \alpha α =
在这里插入图片描述
我们知道对于新基底中每个元素 e ⃗ k \vec e_k e k,其都属于线性空间V中的某一个普通元素,所以可以用老基底展开表示出来,如下图:
在这里插入图片描述
将系数抽象出来,用矩阵表示-矩阵T:
在这里插入图片描述
观察可得:
基变换: ( e ⃗ 1 ′ , e ⃗ 2 ′ , . . . , e ⃗ n ′ ) = ( e ⃗ 1 , e ⃗ 2 , . . . , e ⃗ n ) T (\vec e'_1,\vec e'_2,...,\vec e'_n)=(\vec e_1,\vec e_2,...,\vec e_n)T (e 1,e 2,...,e n)=(e 1,e 2,...,e n)T
系数变换: ( k ⃗ 1 , k ⃗ 2 , . . . , k ⃗ n ) = ( k ⃗ 1 ′ , k ⃗ 2 ′ , . . . , k ⃗ n ′ ) T (\vec k_1,\vec k_2,...,\vec k_n)=(\vec k'_1,\vec k'_2,...,\vec k'_n)T (k 1,k 2,...,k n)=(k 1,k 2,...,k n)T
其中,T 被称作过渡矩阵
(不区分基底变换矩阵和系数变换矩阵,同是矩阵T[好巧(´∀`)])。
在这里插入图片描述那么再来想,如果 ( e ⃗ 1 ′ , e ⃗ 2 ′ , . . . , e ⃗ n ′ ) (\vec e'_1,\vec e'_2,...,\vec e'_n) (e 1,e 2,...,e n)可以作为线性空间V的一组新基底。那它肯定需要满足:线性无关性。
根据基底变换公式:新基底=老基底*T。
得:新基底的线性无关性与转换矩阵T有关。
    —— T是满秩矩阵。

基底变换矩阵可以由老基底变到新基底,同样也一定能由新基底再变回来。那么就引出了 “矩阵的逆”-“逆矩阵” 的概念。
如下图所示:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述在这里插入图片描述可以得到结论:

r a n k ( T ) = n rank(T)=n rank(T)=n ;
矩阵T是方阵,同时是可逆矩阵

二、 线性变换

2.1 线性变换与基变换的不同

2.1中为引入“基变换”和“坐标变换”的概念,从线性空间拎出任一向量 α ⃗ \vec \alpha α ,并对这一个向量的“微观”表示下文章,加以解释概念。

向量不变,基底变。

在这里插入图片描述而我们要从线性空间中取出的向量也不总是一成不变的,向量与向量间如何转换?

向量变,且变换后的向量仍保持线性性。

线性变换:
L ( k α ⃗ + l β ⃗ ) = k ∗ L ( α ⃗ ) + l ∗ L ( β ⃗ ) L(k\vec \alpha+l\vec \beta)=k*L(\vec \alpha)+l*L(\vec \beta) L(kα +lβ )=kL(α )+lL(β )

常见的线性变换:投影、旋转、反演、各类复合。

在这里插入图片描述投影: α ⃗ \vec \alpha α β ⃗ \vec \beta β 的和在平面上的投影等于 α ⃗ \vec \alpha α β ⃗ \vec \beta β 分别投影之和。

2.2 线性变换的表示

线性变换本身是不需要基底的,但是我们常常需要引入基底来帮助计算和形象化的表示这种变换。

  • Why?
    想象一个二维空间中的向量 α ⃗ \vec \alpha α :对其做线性变换(伸缩或旋转、改变方向或大小)时,本就是针对这个向量本身完成的这些操作。但是为了具象的描述这个过程,引入基底以精准的用数学语言描述:
    已知二维空间的基底为 x ⃗ 和 y ⃗ \vec x和\vec y x y α ⃗ \vec \alpha α 可以分别投影到x轴和y轴上,自然的定义一种数学描述 α ⃗ = k x ⃗ + l y ⃗ \vec \alpha=k\vec x+l\vec y α =kx +ly
    当对 α ⃗ \vec \alpha α 做整体线性变换 L ( α ⃗ ) L(\vec \alpha) L(α )时, L ( α ⃗ ) = L ( k x ⃗ + l y ⃗ ) L(\vec \alpha)=L(k\vec x+l\vec y) L(α )=L(kx +ly ),这个操作就相当于对每个基底(分量)先进行线性变换然后求和得到 L ( α ⃗ ) L(\vec \alpha) L(α ) L ( k x ⃗ + l y ⃗ ) = k ( L x ⃗ ) + l ( L y ⃗ ) L(k\vec x+l\vec y)=k(L\vec x)+l(L\vec y) L(kx +ly )=k(Lx )+l(Ly )
    要想求 α ⃗ \vec \alpha α 线性变换后的向量,先求出各个基底的线性变换后乘系数加和。

线性空间中引入基底来描述线性变换的过程:
e ⃗ = ( e ⃗ 1 , e ⃗ 2 , . . . , e ⃗ n ) \vec e=(\vec e_1,\vec e_2,...,\vec e_n) e =(e 1,e 2,...,e n)
α ⃗ = k 1 e ⃗ 1 + k 2 e ⃗ 2 + . . . + k n e ⃗ n \vec \alpha=k_1\vec e_1+k_2\vec e_2+...+k_n\vec e_n α =k1e 1+k2e 2+...+kne n
L ( α ⃗ ) = k 1 ∗ L ( e ⃗ 1 ) + k 2 ∗ L ( e ⃗ 2 ) + . . . + k n ∗ L ( e ⃗ n ) L(\vec \alpha)=k_1*L(\vec e_1)+k_2*L(\vec e_2)+...+k_n*L(\vec e_n) L(α )=k1L(e 1)+k2L(e 2)+...+knL(e n)
研究 L ( α ⃗ ) L(\vec \alpha) L(α )的问题转化成研究各个基底的线性变换。

在这里插入图片描述
观察每个基底的变化: e ⃗ i → L ( e ⃗ i ) \vec e_i \to L(\vec e_i) e iL(e i)
每个基底也可以被原线性空间的一组基底表示(只不过其他维度系数都为0)
L ( e ⃗ i ) L(\vec e_i) L(e i)相当于对 e ⃗ i \vec e_i e i 这个基向量的 每个基底做线性变换。即每个分量乘上对应变换系数。
在这里插入图片描述
最终表示出对于这个向量而言,整体的线性变换—— 将线性变换L描述成一个矩阵 L n ∗ n L_{n*n} Lnn
在这里插入图片描述
线性变换作用在一个向量上,就相当于作用在这个向量对应的每个基底上。

任何一个n*n的矩阵L,等价于一个线性变换。

在这里插入图片描述

2.3 线性变换的分类

线性变换根据是否可逆,分成可逆线性变换和不可逆线性变换。
可逆线性变换:旋转、反演等。
不可逆线性变换:投影。

2.4 线性变换与矩阵

在学习线性空间和线性变换的过程中,我们总不可避免的去接触矩阵这个东西——
a) 描述坐标变换 e ⃗ i → e ⃗ i ′ \vec e_i \to \vec e_i' e ie i,用到矩阵 T n ∗ n T_{n*n} Tnn
b) 描述向量用不同基底展开时的系数变化 k i → k i ′ k_i \to k_i' kiki,用到矩阵 T n ∗ n T_{n*n} Tnn
c) 描述线性变换 α ⃗ → α ⃗ ′ \vec \alpha \to \vec \alpha' α α ,用到矩阵 L n ∗ n L_{n*n} Lnn

在这里插入图片描述
那矩阵到底是什么?到底用来描述什么东西?
想象一个自然数,我们可以把它认为是多少钱、多少道题、多少本书、多少天等。

当给定了使用场景/衡量标准时,它有不同的意义。
只有给定了使用场景/衡量标准时,它才有意义。
矩阵也是这样。

对于矩阵的理解要结合具体场景,从宏观体系上理解。眼光不能总是聚焦在矩阵中的一串数字上。

2.5 应用:线性代数观点看线性变换

用线性代数求解函数空间中的线性微分方程
在这里要引出对相似矩阵的概念理解

2.5.1 微分方程是线性变换

在这里插入图片描述

2.5.2 傅里叶变换是基底变换

傅里叶变换的思想:
如果直接求解微分方程不会做,先把 f ( x ) f(x) f(x)经过傅里叶变换(基底变换)成 g ( k ) g(k) g(k),再对 g ( k ) g(k) g(k)求解。
问题简化成“解多项式方程”。
在这里插入图片描述
时域空间中 f ( x ) f(x) f(x)与频域空间中 g ( k ) g(k) g(k)的关系:
在这里插入图片描述
为什么要将 f ( x ) f(x) f(x)转成 g ( k ) g(k) g(k)计算?
g ′ ( k ) = ( − i k ) g ( x ) g'(k)=(-ik)g(x) g(k)=(ik)g(x),发现:我们依然可以用g(k)来表示g(k)的导数。这样就可以将微分方程 → \to 多项式方程,解起来简单多了。
在这里插入图片描述
-eg:
求解线性微分方程 f ′ ′ + 3 f ′ + 2 f = 0 f''+3f'+2f=0 f+3f+2f=0
在这里插入图片描述

2.5.3 相似矩阵

依据前面利用傅里叶变换求解问题的思想:
拿到一个问题,正面直接求解我们不会做。
但若存在一种转换方法,将原问题转化成另外一个问题,又能将问题再转换回原问题。并且这种转换方法往往使得计算更简单。
在这个变换过程中,注意T必须是可逆的。

  • 根据这种思想,得到相似矩阵的概念:

A = T − 1 B T A=T^{-1}BT A=T1BT,则称A相似于B。

在这里插入图片描述
单对数学表达式进行观察,我们似乎很容易得到:“一个矩阵B 与 对其右乘矩阵T再左乘矩阵T的逆矩阵得到的矩阵A相似”这种表面上的定义方式,但更应该清楚这到底是怎么得来的,以及为什么要有这种定义和操作。

三、线性空间的理解

详见:
线性代数学习笔记(一):线性空间的理解

四、矩阵的理解

详见:
线性代数学习笔记(三):矩阵的理解之— 矩阵的秩与行列式

线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量

线性代数学习笔记(五):矩阵的理解之— 线性代数核心定理

这篇关于线性代数学习笔记(二):线性变换的理解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/544262

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

认识、理解、分类——acm之搜索

普通搜索方法有两种:1、广度优先搜索;2、深度优先搜索; 更多搜索方法: 3、双向广度优先搜索; 4、启发式搜索(包括A*算法等); 搜索通常会用到的知识点:状态压缩(位压缩,利用hash思想压缩)。

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识