带你重拾线性代数

2024-03-30 00:18
文章标签 线性代数 重拾

本文主要是介绍带你重拾线性代数,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

声明:

  1. 本文所有内容均来自笔者在学习中所做总结,难免会有错误,谨慎参考;
  2. 本文所有内容的整理逻辑以及应用范围均只局限于机器学习相关内容,请勿延伸至其他领域;
  3. 本文内容会不定期更新,总结,修改,排版,仅根据笔者所遇到的问题进行相关部分的完善;
  4. 若发现错误,还望不吝赐教(留言,邮箱均可);
  5. 文章内容可转载,但请注明出处;

说明:

  1. 文中所有涉及到的矩阵,若未做特殊说明均为方阵

一、向量的表示方法

1.1 引言

在二维平面中,我们都知道可以用有序实数对来表示一个向量,例如: u=4,2 。它表示一条从原点出发,到达点(4,2)的有向线段。如下图所示:

这里写图片描述

但是一个向量为什么可以这样表示呢?它到底有着怎样的含义?

1.2 基

从1.1我们知道,一个向量可以表示成如(4,2)这样的形式。但这是怎么来的呢?如上图所示,我们将向量 u 分别在x轴和y轴上做投影,我们发现此时我们得到了4,2这两个数,这是巧合么?不过这当然不是。其原因是因为默认情况下,我们都选择了i=(1,0)T,j=(0,1)T来当作我们的基向量;而向量 u=(4,2) 所表示的含义就是,先 i 的方向移动4个单位,再向j的方向移动2个单位,这样便得到了向量(4,2),如下图:

这里写图片描述

因此,我们称 u=(4,2)T i,j 的线性组合,即 u=4i+2j 。同时,由于 i,j 的模长为1,且相互垂直,我们称其为标准正交基

但是,如果我们选择其它不同的基向量,又会是怎么样呢?

二、矩阵与矩阵乘法

先给出结论:矩阵的本质是表示某个线性变换的操作步骤,而矩阵的乘法就是实施这个线性变换。

2.1 矩阵的概念

上一章我们谈到了向量,知道向量其实是一组(线性无关)基的线性组合。而我们把由多个向量拼接在一起的m行n列的矩形表格称之为矩阵,若m=n,则称之为n阶矩(方)阵。

2.2 矩阵及矩阵乘法的本质

矩阵的本质是什么?下面我们通过两个例子来说明。

例1.
我们知道在平面直角坐标系中,我们默认用的基向量分别是 i=(1,0)T,j=(0,1)T ,如下图所示:
这里写图片描述

现有向量 α=(32,32) ,矩阵

U=12121212

则: β=UαT=[0,3]T 。我们发现,向量 β 是向量 α 逆时针旋转45度之后的结果。那么矩阵U的作用就是将原有的坐标系旋转45度吗?答案是肯定的。
矩阵U告诉我们,他的作用是将原有的坐标系

这篇关于带你重拾线性代数的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/860035

相关文章

numpy求解线性代数相关问题

《numpy求解线性代数相关问题》本文主要介绍了numpy求解线性代数相关问题,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 在numpy中有numpy.array类型和numpy.mat类型,前者是数组类型,后者是矩阵类型。数组

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

线性代数|机器学习-P35距离矩阵和普鲁克问题

文章目录 1. 距离矩阵2. 正交普鲁克问题3. 实例说明 1. 距离矩阵 假设有三个点 x 1 , x 2 , x 3 x_1,x_2,x_3 x1​,x2​,x3​,三个点距离如下: ∣ ∣ x 1 − x 2 ∣ ∣ 2 = 1 , ∣ ∣ x 2 − x 3 ∣ ∣ 2 = 1 , ∣ ∣ x 1 − x 3 ∣ ∣ 2 = 6 \begin{equation} ||x

【线性代数】正定矩阵,二次型函数

本文主要介绍正定矩阵,二次型函数,及其相关的解析证明过程和各个过程的可视化几何解释(深蓝色字体)。 非常喜欢清华大学张颢老师说过的一段话:如果你不能用可视化的方式看到事情的结果,那么你就很难对这个事情有认知,认知就是直觉,解析的东西可以让你理解,但未必能让你形成直觉,因为他太反直觉了。 正定矩阵 定义 给定一个大小为 n×n 的实对称矩阵 A ,若对于任意长度为 n 的非零向量 ,有 恒成

python科学计算:NumPy 线性代数与矩阵操作

1 NumPy 中的矩阵与数组 在 NumPy 中,矩阵实际上是一种特殊的二维数组,因此几乎所有数组的操作都可以应用到矩阵上。不过,矩阵运算与一般的数组运算存在一定的区别,尤其是在点积、乘法等操作中。 1.1 创建矩阵 矩阵可以通过 NumPy 的 array() 函数创建。矩阵的形状可以通过 shape 属性来访问。 import numpy as np# 创建一个 2x3 矩阵mat

线性代数 第六讲 特征值和特征向量_相似对角化_实对称矩阵_重点题型总结详细解析

文章目录 1.特征值和特征向量1.1 特征值和特征向量的定义1.2 特征值和特征向量的求法1.3 特征值特征向量的主要结论 2.相似2.1 相似的定义2.2 相似的性质2.3 相似的结论 3.相似对角化4.实对称矩阵4.1 实对称矩阵的基本性质4.2 施密特正交化 5.重难点题型总结5.1 判断矩阵能否相似对角化5.2 已知两个矩阵相似,求某个矩阵中的未知参数5.3 相似时,求可逆矩阵P,使

【鼠鼠学AI代码合集#5】线性代数

在前面的例子中,我们已经讨论了标量的概念,并展示了如何使用代码对标量进行基本的算术运算。接下来,我将进一步说明该过程,并解释每一步的实现。 标量(Scalar)的基本操作 标量是只有一个元素的数值。它可以是整数、浮点数等。通过下面的 Python 代码,我们可以很容易地进行标量的加法、乘法、除法和指数运算。 代码实现: import torch# 定义两个标量x = torch.tens

时隔一年多,重拾起前端

从2018年毕业到现在,工作快一年的时间了。工作后,涉及到的编程语言大多是C++、Java,从一个菜鸟前端“华丽”转变为菜鸟后端。这一年,几乎很少关注前端知识,工作上能接触到的也几乎是很简单的js开发,用的是公司自研框架(难用无比),几度有想法转后端,从此放弃前端的学习。 虽说是工作上的原因,迫使自己学习后端语言,但同时自己也学到了很多东西(像多线程、面向对象、数据库等等自己现在也能说个皮毛出

线性代数|机器学习-P33卷积神经网络ImageNet和卷积规则

文章目录 1. ImageNet2. 卷积计算2.1 两个多项式卷积2.2 函数卷积2.3 循环卷积 3. 周期循环矩阵和非周期循环矩阵4. 循环卷积特征值4.1 卷积计算的分解4.2 运算量4.3 二维卷积公式 5. Kronecker Product 1. ImageNet ImageNet 的论文paper链接如下:详细请直接阅读相关论文即可 通过网盘分享的文件:image

Matlab初等数学与线性代数

初等数学 算术运算 基本算术 加法 +添加数字,追加字符串sum数组元素总和cumsum累积和movsum移动总和 A = 1:5;B = cumsum(A)B = 1×51 3 6 10 15 减法 -减法diff差分和近似导数 乘法 .*乘法*矩阵乘法prod数组元素的乘积cumprod累积乘积pagemtimes按页矩阵乘法 (自 R202