特征值eigenvalue与特征向量eigenvector

2024-04-20 20:52

本文主要是介绍特征值eigenvalue与特征向量eigenvector,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

特征值,特征向量概念

在线性代数中,对于一个给定的线性变换A,他的特征向量v经过这个线性变换的作用之后,得到的新向量仍然与原来的 v v v保持在同一条直线上。但长度或方向也许会改变。即:
A v Av Av = λ v \lambda v λv
其中 λ \lambda λ为标量,即特征向量的长度在该线性变换下缩放的比例,称为其特征值。

A = [ 1 1 4 − 2 ] , v 1 = [ 1 2 ] A = \left[ \begin{array}{cc} 1 & 1 \\ 4 & -2 \end{array} \right],v_{1}=\left[ \begin{array}{cc} 1\\ 2 \end{array} \right] A=[1412],v1=[12]
A与 v 1 v_{1} v1内积后的A v 1 v_{1} v1 v 1 v_{1} v1不在一条直线上,所以 v 1 v_{1} v1不是A的特征向量
A v 1 = [ 3 0 ] Av_{1}=\left[ \begin{array}{cc} 3\\ 0 \end{array} \right] Av1=[30]

在这里插入图片描述
v 2 v_{2} v2 = [ 1 1 ] \left[ \begin{array}{cc} 1\\ 1 \end{array} \right] [11]
A v 2 Av_{2} Av2 = [ 1 1 4 − 2 ] \left[ \begin{array}{cc} 1 & 1 \\ 4 & -2 \end{array} \right] [1412] [ 2 2 ] \left[ \begin{array}{cc} 2\\ 2 \end{array} \right] [22] = [ 2 2 ] \left[ \begin{array}{cc} 2\\ 2 \end{array} \right] [22] = 2 [ 1 1 ] \left[ \begin{array}{cc} 1\\ 1 \end{array} \right] [11] = 2 v 2 v_{2} v2
v 2 v_{2} v2经过A线性变换后的A v 2 v_{2} v2 v 2 v_{2} v2在同一条直线上。
那么 v 2 v_{2} v2是A的特征向量,2是A的特征值。

求解特征值,特征向量?

A v = λ v ⟹ A v − λ v = 0 Av = \lambda v \Longrightarrow Av - \lambda v = 0 Av=λvAvλv=0
( A − λ I ) v = 0 (A - \lambda I)v = 0 (AλI)v=0 I I I是单位矩阵
上面的式子有非零解, ∣ A − λ I ∣ |A-\lambda I| AλI行列式必须为0

举个例子

  • 这是一个矩阵(线性变换)
    A = [ 1 1 4 − 2 ] A = \left[ \begin{array}{cc} 1 & 1 \\ 4 & -2 \end{array} \right] A=[1412]
  • 让A与 λ I \lambda I λI相减
    A − λ I = [ 1 − λ 1 4 − 2 − λ ] A - \lambda I = \left[ \begin{array}{} 1 - \lambda & 1 \\ 4 & -2 - \lambda \end{array} \right] AλI=[1λ412λ]
  • 行列式相减等于0
    ∣ A − λ I ∣ = 0 ⟹ ∣ 1 − λ 1 4 − 2 − λ ∣ = 0 |A - \lambda I| = 0 \Longrightarrow \begin{vmatrix}{} 1 - \lambda & 1 \\ 4 & -2 - \lambda \end{vmatrix} = 0 AλI=0 1λ412λ =0
  • 行列式计算,解一元二次方程方程
    ( 1 − λ ) ( − 2 − λ ) − 1 × 4 = 0 ⟹ { λ 1 = 2 λ 2 = − 3 } (1 - \lambda)(-2 - \lambda) - 1 \times 4 = 0 \Longrightarrow \begin{Bmatrix} \lambda_1=2 \\\lambda_2=-3 \end{Bmatrix} (1λ)(2λ)1×4=0{λ1=2λ2=3}
    得到了2个特征值: 2 , − 3 2,-3 23
  • λ 1 = 2 \lambda_{1}=2 λ1=2时,有 A = [ 1 − 2 1 4 − 2 − 2 ] ⋅ v 1 = 0 A = \left[ \begin{array}{cc} 1-2 & 1 \\ 4 & -2 - 2 \end{array} \right] \cdot v_{1} = 0 A=[124122]v1=0,这是对应与 λ 1 \lambda_{1} λ1的特征向量

[ 1 − 2 1 4 − 2 − 2 ] ⋅ [ v 11 v 12 ] ⟹ { − v 11 + v 12 = 0 4 v 11 − 4 v 12 = 0 } ⟹ v 11 = v 12 \left[ \begin{array}{cc} 1-2 & 1 \\ 4 & -2 - 2 \end{array} \right] \cdot \left[ \begin{array}{} v_{11}\\v_{12} \end{array} \right] \Longrightarrow \begin{Bmatrix} -v_{11} + v_{12} = 0\\ 4v_{11} - 4v_{12} = 0 \end{Bmatrix} \Longrightarrow v_{11}=v_{12} [124122][v11v12]{v11+v12=04v114v12=0}v11=v12

  • 解方程的结果是 v 11 = v 12 v_{11} = v_{12} v11=v12,那么在蓝色线上的任一个向量都是A的特征向量
    在这里插入图片描述

取任意一组解: { v 11 = 1 v 12 = 1 } \begin{Bmatrix} v_{11} = 1\\v_{12} = 1\end{Bmatrix} {v11=1v12=1}就可得到矩阵的特征向量。
同理可以计算出特征值 λ 2 = − 3 \lambda_{2} = -3 λ2=3时, { v 21 = 1 v 22 = − 4 } \begin{Bmatrix}v_{21}=1\\v_{22}=-4\end{Bmatrix} {v21=1v22=4},此时特征向量 v 2 = [ 1 − 4 ] v_2=\left[\begin{array}{}1\\-4\end{array}\right] v2=[14]

这篇关于特征值eigenvalue与特征向量eigenvector的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/921300

相关文章

特征值分解(EVD)和奇异值分解(SVD)—应用于图片压缩

特征值分解(EVD)和奇异值分解(SVD)—应用于图片压缩 目录 前言 一、特征值分解 二、应用特征值分解对图片进行压缩 三、矩阵的奇异值分解 四、应用奇异值分解对图片进行压缩 五、MATLAB仿真代码 前言         学习了特征值分解和奇异值分解相关知识,发现其可以用于图片压缩,但网上没有找到相应代码,本文在学习了之后编写出了图片压缩的代码,发现奇异值分

线性代数 第六讲 特征值和特征向量_相似对角化_实对称矩阵_重点题型总结详细解析

文章目录 1.特征值和特征向量1.1 特征值和特征向量的定义1.2 特征值和特征向量的求法1.3 特征值特征向量的主要结论 2.相似2.1 相似的定义2.2 相似的性质2.3 相似的结论 3.相似对角化4.实对称矩阵4.1 实对称矩阵的基本性质4.2 施密特正交化 5.重难点题型总结5.1 判断矩阵能否相似对角化5.2 已知两个矩阵相似,求某个矩阵中的未知参数5.3 相似时,求可逆矩阵P,使

奇异值与特征值基础

一、奇异值与特征值基础知识:     特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧:    1)特征值:     如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:     这时候λ就被称为特征向量v对应的特征值,一个

处理特征向量和离散特征

在最新的腾讯的社交广告大赛中,数据如下,如何处理这种向量的特征 比如intersets1,interests2.... LBS,950,age,4,carrier,1,consumptionAbility,2,ct,3 1,education,7,gender,2,interest1,93 70 77 86 109 47 75 69 45 8 29 49 83 6 46 36

MATLAB eig 函数简介:计算特征值和特征向量

在数据科学、工程学和数学中,特征值和特征向量是理解和分析矩阵行为的核心概念。MATLAB 的 eig 函数是处理这些概念的强大工具。本文将介绍 eig 函数的基本用法,并通过示例展示如何使用它来计算特征值和特征向量。 什么是特征值和特征向量? 在矩阵分析中,特征值和特征向量帮助我们理解一个矩阵的性质。例如,在物理学中,它们可以用来描述系统的稳定性;在机器学习中,它们被用于数据降维和特征提取。

矩阵的特征值和特征向量的雅克比算法C/C++实现

矩阵的特征值和特征向量是线性代数以及矩阵论中非常重要的一个概念。在遥感领域也是经常用到,比如多光谱以及高光谱图像的主成分分析要求解波段间协方差矩阵或者相关系数矩阵的特征值和特征向量。 根据普通线性代数中的概念,特征值和特征向量可以用传统的方法求得,但是实际项目中一般都是用数值分析的方法来计算,这里介绍一下雅可比迭代法求解特征值和特征向量。 雅克比方法用于求实对称阵的全部特征值、特征向量。 对

眼底视网膜血管增强方法(五)Hessian矩阵最大特征值

眼底视网膜血管增强方法(五)Hessian矩阵最大特征值 说明 在上一篇文章中讲到,Hessian矩阵的特征值能够很好地描述眼底图像的血管信息。眼底的血管部分是一个管状的结构,高斯二阶导的响应值比较大;眼底的背景是均匀部分,高斯二阶导的响应值比较小。因此,血管点处的Hessian矩阵特征值一大一小,血管交叉点处Hessian矩阵特征值两个都很大,背景点处Hessian矩阵的特征值两个都很小。f

特征值分解(EVD)和奇异值分解(SVD)

两篇博文,写得很好: http://blog.sina.com.cn/s/blog_3f738ee00102val0.html http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html

线性代数|机器学习-P32循环矩阵的特征向量-傅里叶矩阵

文章目录 1. 大纲2. 循环矩阵2.1 移位矩阵P2.2 P的特征值和特征向量2.3 循环卷积矩阵2.4 循环卷积计算 3. 傅里叶矩阵 1. 大纲 循环矩阵在机器学习,图像处理中的应用循环卷积矩阵的特征值,特征向量,卷积规则循环卷积矩阵多项式表达: C = c 0 I + c 1 P + c 2 P 2 + ⋯ + c n − 1 P n − 1 C=c_0 I+c_1P+c

字符串的特征向量与KMP算法

字符串的特征向量就是由字符串各位置上的特征数构成的一个向量。设字符串为P,令Pi为从字符串首字母到第i个位置的前缀,则字符串P的i位置上的特征数就是Pi的首尾非空真子串匹配的最大长度。例如:字符串abcdaabcab的特征向量是(0,0,0,0,1,1,2,3,1,2)。其中第5个位置的特征数是1,因为P5是abcdaa,首尾非空真子串能够匹配的就是a;而第7个位置的特征数是3,因为P7是abcd