花书第二章——线性代数

2024-09-04 14:36

本文主要是介绍花书第二章——线性代数,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2.1 标量、向量、矩阵、张量和转置

  1. 标量(scalar):标量就是一个单独的数,例如数字1、2、1.1、1.2都是标量;

  2. 向量(vector):一个向量可以看作是一组标量形成的一维数组,例如由 n 个实数组成的向量 x \pmb{x} x 为:
    x \pmb{x} x = [ x 1 , x 2 , … , x n x_1,x_2, \dots,x_n x1,x2,,xn]。我们可以把向量看作空间中的点,向量中的每个元素是不同坐标轴上的坐标。

  3. 矩阵(matrix):矩阵是一个二维数组,其中的每一个元素被两个索引(行和列)所确定。矩阵A的例子如下所示
    在这里插入图片描述

  4. 张量(tensor):张量是多维数组。零维数组就是标量,一维数组就是向量,二维数组就是矩阵,多维数组就是张量。

  5. 转置(transpose):矩阵的转置可以看作是将矩阵按主对角线翻转过来(也就是行变列,列变行),矩阵 A A A 的转置常用 A T A^T AT来表示。主对角线是指从左上角到右下角的那条对角线。
    在这里插入图片描述

2.2 矩阵运算

  1. 矩阵乘法:两个矩阵 A 和 B 的矩阵乘积是第三个矩阵 C。A 矩阵的形状为m×n,B 矩阵的形状为n×p,C矩阵的形状为m×p。即 A m n ∗ B n p = C m p A_{mn}*B_{np}=C_{mp} AmnBnp=Cmp,其中A 矩阵的列数等于 B 矩阵的行数。

  2. 内积(点积):向量 x = [ x 1 , x 2 , . . . , x n ] x=[x_1,x_2,...,x_n] x=[x1,x2,...,xn],向量 y = [ y 1 , y 2 , . . . , y n ] y=[y_1,y_2,...,y_n] y=[y1,y2,...,yn]。则向量 x x x 与向量 y y y 的内积为: [ x , y ] = x T y = x 1 y 1 + x 2 y 2 + . . . + x n y n [x,y]=x^Ty=x_1y_1+x_2y_2+...+x_ny_n [x,y]=xTy=x1y1+x2y2+...+xnyn。两个向量的内积是一个标量(数)。

  3. 逆矩阵: A A − 1 = A − 1 A = I n AA^{-1}=A^{-1}A=I_n AA1=A1A=In。其中,矩阵 A A A 是n阶方阵, A − 1 A^{-1} A1是矩阵A的逆矩阵。 I n I_n In是n阶单位矩阵,任意向量和单位矩阵相乘,都不会改变。下面是一个3阶单位矩阵的示例。
    在这里插入图片描述
    假如一个矩阵存在逆矩阵,那么相应的线性方程组就可以转化为求逆矩阵与向量的矩阵乘积,如下所示。
    在这里插入图片描述
    在这里插入图片描述

  4. 范数(norm):范数用来衡量一个向量的大小。形式上, L p L^p Lp 范数定义如下:
    在这里插入图片描述
    范数是将向量映射到非负值的函数。直观上来说,向量 x x x 的范数衡量从原点到点 x 的距离。
    (1)当p=2时, L 2 L^2 L2范数被称为欧几里得范数。它表示从原点出发到向量 x x x 确定的点的欧几里得距离。 L 2 L^2 L2范数在机器学习中出现地十分频繁,经常简化表示为 ∣ ∣ x ∣ ∣ ||x|| ∣∣x∣∣,略去了下标2。 L 2 L^2 L2范数的平方经常用来衡量向量的大小,可以通过向量自身的点积 x T x x^Tx xTx 来计算。
    (2)当p=1时,为 L 1 L^1 L1范数。 L 1 L^1 L1范数如下所示。
    在这里插入图片描述

  5. 特殊矩阵:
    (1)对角矩阵(diagonal matrix):只在主对角线上含有非零元素,其他位置都是零。我们用 d i a g ( v ) diag(v) diag(v) 表示一个对角元素由向量 v v v 中元素给定的对角方阵。
    (2)对称矩阵(symmetric matrix):对称矩阵的转置等于它自身。即 A T = A A^T=A AT=A
    (3)正交矩阵(orthogonal matrix):正交矩阵的转置与它自身的矩阵乘积是单位矩阵。即:
    在这里插入图片描述
    正交矩阵的几何意义:行向量或列向量要两两正交,且都是单位向量。
    (4)向量正交:向量 x x x 与向量 y y y 的内积 x T y = x 1 y 1 + x 2 y 2 + . . . + x n y n = 0 x^Ty=x_1y_1+x_2y_2+...+x_ny_n=0 xTy=x1y1+x2y2+...+xnyn=0,那么就称向量 x x x 与向量 y y y 正交(垂直)。如果向量 x x x 与向量 y y y 不仅互相正交,并且范数都为1(单位向量),那么我们称它们是标准正交。

  6. 迹(trace):迹定义为求主对角线元素的和。
    在这里插入图片描述

2.3 特征分解(eigendecomposition)

(1)特征分解就是将矩阵分解成一组特征向量和特征值。A是n阶矩阵,对于一个数 λ \lambda λ,存在非零向量 v v v,使得 A v = λ v Av=\lambda v Av=λv。那么 λ \lambda λ 是矩阵A的特征值, v v v是矩阵A对应于特征值 λ \lambda λ的特征向量。
(2)如果方阵A和向量 v v v 的乘积可以表示为一个标量 λ \lambda λ与向量 v v v 的乘积,那么 v v v 就是A的一个特征向量, λ \lambda λ就是A的一个特征值。
(3)
在这里插入图片描述
在这里插入图片描述
参考考研笔记中的相似矩阵、相似对角化。
(4)所有特征值都是正数的矩阵被称为正定;所有特征值都是非负数的矩阵被称为半正定;所有特征值都是负数的矩阵被称为负定;所有特征值都是非正数的矩阵被称为半负定。
(5)我们可以想象矩阵A实际上是将空间在其特征向量的方向上各自拉伸了对应的特征值的尺度。
在这里插入图片描述

2.4 奇异值分解

  上面探讨了如何将矩阵分解成特征向量和特征值。还有另一种分解矩阵的方法,被称为奇异值分解(singular value decomposition,SVD),将矩阵分解为奇异向量(singular vector)和奇异值(singular value)。通过奇异值分解,我们会得到一些与特征分解相同类型的信息。然而,奇异值分解有更广泛的应用。每个实数矩阵都有一个奇异值分解,但不一定都有特征分解。
在这里插入图片描述
在这里插入图片描述

2.5 主成分分析(待补充…)

  主成分分析(PCA)是一种数据降维算法,通过线性组合原始变量形成互不相关的主成分,保留数据的主要信息。
在这里插入图片描述

参考:
深度学习花书读书笔记目录
花书中文版.pdf

这篇关于花书第二章——线性代数的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1136245

相关文章

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

线性代数|机器学习-P35距离矩阵和普鲁克问题

文章目录 1. 距离矩阵2. 正交普鲁克问题3. 实例说明 1. 距离矩阵 假设有三个点 x 1 , x 2 , x 3 x_1,x_2,x_3 x1​,x2​,x3​,三个点距离如下: ∣ ∣ x 1 − x 2 ∣ ∣ 2 = 1 , ∣ ∣ x 2 − x 3 ∣ ∣ 2 = 1 , ∣ ∣ x 1 − x 3 ∣ ∣ 2 = 6 \begin{equation} ||x

【线性代数】正定矩阵,二次型函数

本文主要介绍正定矩阵,二次型函数,及其相关的解析证明过程和各个过程的可视化几何解释(深蓝色字体)。 非常喜欢清华大学张颢老师说过的一段话:如果你不能用可视化的方式看到事情的结果,那么你就很难对这个事情有认知,认知就是直觉,解析的东西可以让你理解,但未必能让你形成直觉,因为他太反直觉了。 正定矩阵 定义 给定一个大小为 n×n 的实对称矩阵 A ,若对于任意长度为 n 的非零向量 ,有 恒成

python科学计算:NumPy 线性代数与矩阵操作

1 NumPy 中的矩阵与数组 在 NumPy 中,矩阵实际上是一种特殊的二维数组,因此几乎所有数组的操作都可以应用到矩阵上。不过,矩阵运算与一般的数组运算存在一定的区别,尤其是在点积、乘法等操作中。 1.1 创建矩阵 矩阵可以通过 NumPy 的 array() 函数创建。矩阵的形状可以通过 shape 属性来访问。 import numpy as np# 创建一个 2x3 矩阵mat

线性代数 第六讲 特征值和特征向量_相似对角化_实对称矩阵_重点题型总结详细解析

文章目录 1.特征值和特征向量1.1 特征值和特征向量的定义1.2 特征值和特征向量的求法1.3 特征值特征向量的主要结论 2.相似2.1 相似的定义2.2 相似的性质2.3 相似的结论 3.相似对角化4.实对称矩阵4.1 实对称矩阵的基本性质4.2 施密特正交化 5.重难点题型总结5.1 判断矩阵能否相似对角化5.2 已知两个矩阵相似,求某个矩阵中的未知参数5.3 相似时,求可逆矩阵P,使

【鼠鼠学AI代码合集#5】线性代数

在前面的例子中,我们已经讨论了标量的概念,并展示了如何使用代码对标量进行基本的算术运算。接下来,我将进一步说明该过程,并解释每一步的实现。 标量(Scalar)的基本操作 标量是只有一个元素的数值。它可以是整数、浮点数等。通过下面的 Python 代码,我们可以很容易地进行标量的加法、乘法、除法和指数运算。 代码实现: import torch# 定义两个标量x = torch.tens

第二章 《凯斯迈之岛》

就在埃塞克斯大学的两名大学生紧锣密鼓地开发MUD之时,位于大洋彼岸的美国弗吉尼亚大学的两名大学生也在做着自己的游戏,他们名字叫做约翰•R•泰勒(John R Taylor III)和凯尔顿•弗林(Kelton Flinn)。泰勒与特鲁布肖一样是计算机科学专业的学生,而弗林则正在攻读应用数学专业的博士学位。   和当时美国大学校园中的多数学生一样,二人最大的乐趣是使

第一篇 第一章资金时间价值计算及应用 第二章经济效果评价

第1章 资金时间价值计算及应用 资金具有时间价值 1.1 利息的计算 1.1.1 利息和利率 I=F-P 债务人为资金需求方 债权人为资金供给方利息对经济活动的影响(1.影响企业行为 2.影响居民资产选择行为 3.影响政府行为) 利率 1.影响因素(1.社会平均利润率的高低 2.市场资金供求对比状况 3.资金要承担的风险 4.债务资金使用期限长短 5.政府宏观调控政策 6.经济周期所处

线性代数|机器学习-P33卷积神经网络ImageNet和卷积规则

文章目录 1. ImageNet2. 卷积计算2.1 两个多项式卷积2.2 函数卷积2.3 循环卷积 3. 周期循环矩阵和非周期循环矩阵4. 循环卷积特征值4.1 卷积计算的分解4.2 运算量4.3 二维卷积公式 5. Kronecker Product 1. ImageNet ImageNet 的论文paper链接如下:详细请直接阅读相关论文即可 通过网盘分享的文件:image

第二章 可行性研究与软件开发计划简记

第二章  可行性研究与软件开发计划 可行性研究的任务:回答所开发的软件系统有无可行的解决办法或者这个系统值得开发么。 可行性研究大体可分为三个大的方面:工艺技术、市场需求、财务经济状况。 可行性研究的目的:就是尽可能的用最小的代价在尽可能短的时间内确定问题是否能解决。 可行性研究的解决方案:一般集中在 1.技术可行性2.经济可行性3.操作可行性。