本文主要是介绍【ML学习笔记】4:机器学习中的数学基础4(线性变换的矩阵描述),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
线性空间
线性空间即向量空间,如果空间中有一个原点O,那么空间中的所有点都可以用向量来表示,这些向量及其运算构成的即是向量空间。
基
基是线性空间里的一组向量,使得该线性空间中任何一个向量都可以唯一表示成这组基的线性组合。
如则(a,b)就是P点在这个线性空间下以X向量和Y向量为基的坐标。
要成为基要满足一些条件,首先这些向量要属于这个线性空间:
并且这些向量v1…vk线性无关,而且k=n,那么这些向量构成该线性空间下的一组基。
显然基不唯一,如何选择基(选择坐标系)是一个比较值得推敲的事情,选取一组好的基可以将问题简化(基的选择要取决于要研究的问题)。
线性映射
线性映射的本质就是保持线性结构的映射,如果V和W是两个实线性空间,如果从V到W的映射T:V->W满足:
那么T就是一个线性映射。所谓保持线性结构,看的也就是加法和乘法。
到自身的线性映射T:V->V叫线性变换。
线性变换的矩阵描述
假设V和W分别为n维和m维的线性空间,那么一定存在:
分别是V和W的一组基,也就是说V和W上的所有向量都可以分别由这两组基内向量的线性组合唯一表示。
T,α,β可以唯一决定一个矩阵:
我们只需要关注前面一个线性空间里的基内向量在T上的变换,因为T是从V到W的变换,而前面一个线性空间里的基内向量又都属于V,所以得到的向量一定属于线性空间W,那么就一定能用W上的基β的线性组合唯一表示!所以这个矩阵里的每个元素Aij这样来定义:
展开来看(反着推看起来顺一些),这个矩阵有这样的性质:
往往记为:
在不产生误解的情况下,还可以简记为:
显然这个矩阵和基的选取有密不可分的关系。从这个式子中可以看出,矩阵可以理解为线性映射在特定基下的一种定量描述。
针对换基的矩阵变换公式
如果存在矩阵P和矩阵Q,分别是V和W里基的变换矩阵(新的基中每一个向量都是原来基中向量的线性组合),使变换后的基(仍然是那个线性空间的基)满足:
也就是说存在这样的矩阵:
从而:
(左边两块相等,是因为前面说了线性映射是保持加法和乘法的)
把P移过去,也就是:
和前面线性变换的矩阵描述得到的式子比较一下,发现这块东西其实就是以α,β为基的线性变换T的描述矩阵,也就得到了:
也就是说可以直接用这两个基的变换矩阵去得到新的两个基的线性变换的描述矩阵。
线性映射和算法的关联
比如一个求斐波那契数的问题,就可以用线性映射来表示,因为斐波那契数列满足:
则相邻的两对斐波那契数组成的向量满足这样的线性映射:
也就是说这个问题可以转换成矩阵的乘法问题,而且可以用这样的映射求如此远的斐波那契数:
这篇关于【ML学习笔记】4:机器学习中的数学基础4(线性变换的矩阵描述)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!