特征值和特征向量(Eigenvalues and eigenvectors)

在线性代数中,一个线性变换特征向量(eigenvector 或者 characteristic vector)是一个非零向量。将线性变换应用在它上面,它最多以一个标量因子进行伸缩变换。特征向量缩放的因子叫做特征值,记为 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示

几何上,一个特征向量,对应于一个实非零特征值,指向它被变换拉伸的方向特征值是它被拉伸的因子。如果特征值是负的,则方向相反,如果特征值为0,则缩回原点。

不严谨地说,在多维向量空间中,特征向量是不会旋转的。

正式定义

如果 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_02 一个线性变换,是一个从在 数域 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_03 上的向量空间 CNN特征向量用什么表示 特征向量的英文缩写_特征值_04 到它自身的映射。CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_05 是一个在 CNN特征向量用什么表示 特征向量的英文缩写_特征值_04 内的非零向量。则 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_05 是一个 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_02 的特征向量如果 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_09CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_05 的数乘(scalar multiple)。形式化地,
CNN特征向量用什么表示 特征向量的英文缩写_线性代数_11
其中, CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示 是一个 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_03

由于存在 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_14方阵 和 从 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 维向量空间到自身的线性变换之间直接的一一对应关系,而且是给定向量空间中的任意基的情况下。因此,在一个有限维的向量空间内,用矩阵的语言或者是线性变换的语言来定义特征值和特征向量是等价的

如果 CNN特征向量用什么表示 特征向量的英文缩写_特征值_04 是有限维的,上述等式与
CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_17
等价。其中 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18CNN特征向量用什么表示 特征向量的英文缩写_线性代数_02 的矩阵表示,CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_20CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_05

概述(Overview)

特征值和特征向量在线性变换分析中占有突出地位。前缀 eigen- 取自德语单词 eigen(与英语单词 own 同源),表示“正确”、“特征”、“拥有”。特征值和特征向量最初用于研究刚体旋转运动的主轴,具有广泛的应用,例如稳定性分析、振动分析、原子轨道、面部识别和矩阵对角化。

此处的蒙娜丽莎示例提供了一个简单的说明。图像上的每个点都可以表示为从图像中心指向该点的向量。本例中的线性变换称为 shear 映射。上半部分的点向右移动下半部分的点向左移动。指向原始图像中每个点的向量因此向右或向左倾斜,并通过变换变长或变短。应用此变换时,沿水平轴的点根本不会移动。因此,任何直接指向右侧或左侧且没有垂直分量的向量都是此变换的特征向量,因为映射不会改变其方向。此外,这些特征向量都有一个等于 1 的特征值,因为映射也不会改变它们的长度。

CNN特征向量用什么表示 特征向量的英文缩写_特征向量_22


在这个 shear 映射中,红色箭头改变方向,但蓝色箭头没有。蓝色箭头是此 shear 映射的特征向量,因为它不改变方向,并且由于其长度不变,因此其特征值为 1。

线性变换可以采用多种不同的形式,将向量映射到多种向量空间中,因此特征向量也可以采用多种形式。例如,线性变换可以是一个微分算子(differential operator),如 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_23。在这种情况下,特征向量是的函数,被称为特征函数(本征函数,eigenfunctions),特征向量是被微分算子scaled的,比如
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_24
或者,线性变换可以采用 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_25 矩阵的形式,在这种情况下,特征向量是 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_26 矩阵。如果线性变换以 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_25 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的形式表示,则上述线性变换的特征值方程可以重写为矩阵乘法
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_29
其中特征向量 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_05 是一个 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_26

特征值和特征向量产生了许多密切相关的数学概念,并且在命名它们时可以随意使用前缀 eigen-:

  • 线性变换的所有特征向量的集合,每个特征向量都与其对应的特征值配对,称为该变换的特征系统(eigensystem)。
  • 对应于相同特征值的 CNN特征向量用什么表示 特征向量的英文缩写_特征值_32所有特征向量的集合,加上零向量,称为特征空间(eigenspace),或被称为与该特征值相关的 CNN特征向量用什么表示 特征向量的英文缩写_特征值_32
  • 如果 CNN特征向量用什么表示 特征向量的英文缩写_特征值_32 的一组特征向量形成 CNN特征向量用什么表示 特征向量的英文缩写_特征值_32

历史

特征值通常在线性代数或矩阵理论的背景下被引入。然而,从历史上看,它们出现在二次型和微分方程(quadratic forms and differential equations)的研究中。

18 世纪,Leonhard Euler 研究了刚体的旋转运动,发现了主轴的重要性。Joseph-Louis Lagrange 意识到主轴是惯性矩阵的特征向量。(惯性张量的特征值和特征向量分别是主惯性矩和主惯性轴的方向)

在 19 世纪初,Augustin-Louis Cauchy 看到了他们的工作如何用于对二次曲面(quadric surfaces)进行分类,并将其推广到任意维度。柯西还创造了术语 racine caractéristique(特征根),即现在所谓的特征值;他的术语存在于特征方程中。

后来,约瑟夫·傅立叶在他 1822 年的著名著作《Théorie analytique de la chaleur》中,利用拉格朗日和皮埃尔-西蒙·拉普拉斯的工作,通过变量分离来求解热方程。Charles-François Sturm 进一步发展了傅立叶的思想,并引起了柯西的注意,柯西将它们与自己的思想结合起来,得出了实对称矩阵(real symmetric matrices)具有实特征值的事实。 1855 年,Charles Hermite 将其扩展为现在称为 Hermitian 矩阵。

大约在同一时间,Francesco Brioschi 证明了正交矩阵的特征值位于单位圆(unit circle)上,和 Alfred Clebsch 发现了反对称矩阵(斜对称矩阵,skew-symmetric matrices)的相应结果。最后,Karl Weierstrass 通过意识到亏损矩阵会导致不稳定,阐明了拉普拉斯提出的稳定性理论中的一个重要方面。

与此同时,Joseph Liouville 研究了类似于 Sturm 的特征值问题;从他们的工作中产生的学科现在被称为 Sturm-Liouville 理论。施瓦茨在 19 世纪末研究了拉普拉斯方程在一般域上的第一个特征值,而庞加莱在几年后研究了泊松方程。

20 世纪初,大卫希尔伯特通过将算子视为无限矩阵来研究积分算子的特征值。他是第一个使用德语单词 eigen 的人,意思是“拥有”,表示 特征值和特征向量,在1904年。尽管他可能一直在遵循赫尔曼·冯·亥姆霍兹的相关用法。一段时间以来,英语中的标准术语是“proper value”,但更独特的术语“eigenvalue”是今天的标准。

第一个计算特征值和特征向量的数值算法出现在 1929 年,当时 Richard von Mises 发表了power method。当今最流行的方法之一,QR 算法,由 John G. F. Francis 和 Vera Kublanovskaya 于 1961 年独立提出。

矩阵特征值和特征向量

特征值和特征向量通常在以矩阵为重点的线性代数课程中介绍给我们。此外,有限维向量空间上的线性变换可以使用矩阵来表示,这在数值和计算应用中尤其常见。

CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_36


矩阵 A 通过拉伸向量 x 而不改变其方向来起作用,因此 x 是 A 的特征向量

考虑形成为 n 个标量列表的 n 维向量,例如三维向量
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_37
CNN特征向量用什么表示 特征向量的英文缩写_特征值_38 是相互的 标量倍数(scalar multiples),或平行或共线(parallel or collinear),如果有一个标量 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示 使得
CNN特征向量用什么表示 特征向量的英文缩写_特征值_40
在上面的例子中,CNN特征向量用什么表示 特征向量的英文缩写_特征值_41.

现在考虑由 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_25 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 定义的 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 维向量的线性变换,
CNN特征向量用什么表示 特征向量的英文缩写_线性代数_45
或者
CNN特征向量用什么表示 特征向量的英文缩写_线性代数_46
对于每一行
CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_47
如果 存在 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_05CNN特征向量用什么表示 特征向量的英文缩写_线性代数_49 是标量倍数关系,即如果
CNN特征向量用什么表示 特征向量的英文缩写_特征值_50
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_05 是线性变换 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的一个特征向量,标量因子 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示 是特征值,对应于那个特征向量。方程(CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_54) 是矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18

方程(CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_54)可以等价地写成
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_57
其中 CNN特征向量用什么表示 特征向量的英文缩写_特征值_58CNN特征向量用什么表示 特征向量的英文缩写_特征值_15

特征值和特征多项式(characteristic polynomial)

方程( CNN特征向量用什么表示 特征向量的英文缩写_特征值_60)有一个非零解 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_61 当且仅当 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_特征值_62 的行列式是 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_63 。所以 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18特征值是满足下面方程的 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_66
根据 行列式的定义(Leibniz’s rule),方程( CNN特征向量用什么表示 特征向量的英文缩写_特征值_67 ) 是一个关于变量 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示 的多项式函数,多项式的阶数是 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 (矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 )的阶数。多项式的系数取决于 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 ,除了 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 阶的项总是 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_73 。这个多项式被称作 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18特征多项式。 方程( CNN特征向量用什么表示 特征向量的英文缩写_特征值_67 ) 被称作 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18

代数学基本定理(The fundamental theorem of algebra)指出 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_14 矩阵的特征多项式,作为一个 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 阶多项式,可以被分解为 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 个线性项的乘积:
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_80
其中,CNN特征向量用什么表示 特征向量的英文缩写_特征值_81 是复数域上的数。CNN特征向量用什么表示 特征向量的英文缩写_特征值_82 是多项式的根和矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18

作为一个简短的例子,在后面的例子部分更详细地描述,考虑矩阵
CNN特征向量用什么表示 特征向量的英文缩写_线性代数_84
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_85的行列式,CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18的特征多项式为
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_87
令特征多项式为零,它的根为 CNN特征向量用什么表示 特征向量的英文缩写_特征值_88CNN特征向量用什么表示 特征向量的英文缩写_线性代数_89,这是 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的两个特征值。每个特征值对应的特征向量可以通过求解方程 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_91得到。在这个例子中,特征向量是
CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_92
的任何数乘向量

如果矩阵 A 的元素都是实数,那么特征多项式的系数也将是实数,但特征值可能仍然有非零虚部(nonzero imaginary parts)。因此,相应特征向量的元素也可能具有非零虚部。类似地,即使 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18

具有实系数的实多项式的非实根可以分组为复共轭对,即每对复共轭的两个成员具有仅符号不同的虚部和相同的实部。如果阶数是奇数,则根据intermediate value 定理,根中至少有一个是实数。因此,任何奇数阶实矩阵至少有一个实特征值,而偶数阶实矩阵可能没有任何实特征值与复数特征值相关联的特征向量也是复数并且也出现在复共轭对中。

代数重数(Algebraic multiplicity)

CNN特征向量用什么表示 特征向量的英文缩写_特征值_81CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_14 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的一个特征值。特征值的代数重数 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_97 是其作为特征多项式根的多重性,即最大整数 CNN特征向量用什么表示 特征向量的英文缩写_特征值_98 使得 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_99

假设矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 具有维度 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 ,且 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_102 个不同的特征值。而等式 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_103CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的特征多项式分解为 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 个线性项的乘积,其中一些项可能重复,而特征多项式可以写为 d 项的乘积,每个项对应于一个不同的特征值,每个项的指数是代数重数,
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_106
如果 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_107 那么 右式是 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 个线性项,上式就和等式(CNN特征向量用什么表示 特征向量的英文缩写_特征值_109)一样了。每个特征值的代数重数大小和 维度 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 有下列关系
CNN特征向量用什么表示 特征向量的英文缩写_特征值_111
如果 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_112 ,那么 CNN特征向量用什么表示 特征向量的英文缩写_特征值_81 被称作一个simple特征值。 如果 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_114CNN特征向量用什么表示 特征向量的英文缩写_特征值_81 的几何重数(在下一section介绍)相等,那么 CNN特征向量用什么表示 特征向量的英文缩写_特征值_81 被称作 semisimple 特征值。

特征空间,几何重数,和矩阵的特征基(Eigenspaces,geometric multiplicity,and the eigenbasis for matrices)

给定 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_25 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的特定特征值 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119,将集合 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120 定义为满足方程 (CNN特征向量用什么表示 特征向量的英文缩写_特征向量_121) 的所有向量 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_122
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_123
一方面,这个集合是矩阵 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_85核或零空间。另一方面,根据定义,任何满足此条件的非零向量都是与 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119 关联的 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的特征向量。因此,集合 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120 是零向量与与 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119 关联的 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的所有特征向量的集合的并集,并且 集合CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120 等于 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_85 的零空间。CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120 称为与 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119 相关的 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18特征空间(eigenspace ,characteristic space)。一般来说,CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119 是一个复数,特征向量是复数 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_26 矩阵。零空间的一个性质是它是一个线性子空间,所以 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120CNN特征向量用什么表示 特征向量的英文缩写_特征值_138

因为特征空间 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120 是一个线性子空间,所以它在加法下是封闭的。也就是说,如果两个向量 CNN特征向量用什么表示 特征向量的英文缩写_特征值_140CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_122 属于集合 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120,记作 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_143,则 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_144 或等效地 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_145。这可以使用矩阵乘法的分配特性(distributive property)来验证。类似地,因为 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120 是一个线性子空间,它在标量乘法下是封闭的。也就是说,如果 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_147 并且 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_148 是一个复数,则 CNN特征向量用什么表示 特征向量的英文缩写_特征值_149 或等效地 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_150。这可以通过注意到复数矩阵乘以复数是可交换的来检查。只要 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_151CNN特征向量用什么表示 特征向量的英文缩写_特征向量_152 不为零,它们也是与 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119 关联的 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18

CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119 相关联的特征空间 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120 的维数,或等效地与 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119 相关联的线性无关特征向量的最大数量,被称为特征值的几何重数 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_158。因为 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_120 也是 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_85的零空间,CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_119 的几何重数是 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_85 的零空间的维度,也称为 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_85 的零空间
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_164

不同的特征向量可以对应同一个特征值或者说同一个特征值可以对应多个特征向量。因为特征向量是和矩阵对应的,一个矩阵表示一个线性变换。特征向量就是在这次线性变换中只伸缩,不旋转的向量。特征值就是这次线性变换作用在这个特征向量上时,这个特征向量的伸缩倍数。所以多个不同的特征向量是可以伸缩同样的倍数的,即可以有相同的特征值。

特征值的其他性质

CNN特征向量用什么表示 特征向量的英文缩写_特征向量_165每个特征值在这个列表中出现 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_166 次,其中 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_166

  • CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168 的迹,定义为其对角线元素之和,也是所有特征值之和
    CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_169
  • A 的行列式是其所有特征值的乘积,
    CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_170
  • 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168CNN特征向量用什么表示 特征向量的英文缩写_线性代数_172 (k为正整数)次幂CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_173 的特征值为 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_174
  • 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168
  • 如果 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168 是可逆的,那么 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_177 的特征值为 CNN特征向量用什么表示 特征向量的英文缩写_特征值_178, 并且每个特征值的几何重数对应相等。此外,由于逆的特征多项式是原多项式的reciprocal polynomial,特征值共享相同的代数重数。
  • 如果 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168 等于它的共轭转置 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_180,或者等价地,如果 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168
  • 如果 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168
  • 如果CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168 是幺正(unitary)的,每个特征值都有绝对值 CNN特征向量用什么表示 特征向量的英文缩写_特征值_184
  • 如果 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_168 是一个 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_186 矩阵和 CNN特征向量用什么表示 特征向量的英文缩写_特征值_187 是它的特征值,那么矩阵 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_188 的特征值(其中 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_189 是单位矩阵)是 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_190。此外,如果 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_191CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_192 的特征值是CNN特征向量用什么表示 特征向量的英文缩写_线性代数_193。更一般地,对于多项式 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_194,矩阵 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_195 的特征值是 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_196

左右特征向量

许多学科传统上将向量表示为具有单列的矩阵,而不是具有单行的矩阵。因此,矩阵上下文中的“特征向量”一词几乎总是指右特征向量,即右乘 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_14 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的列向量定义方程,方程(CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_199
CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_200
特征值和特征向量问题也可以定义为左乘矩阵$A $的向量。在这个公式中,定义方程是:
CNN特征向量用什么表示 特征向量的英文缩写_线性代数_201
其中 CNN特征向量用什么表示 特征向量的英文缩写_特征值_202 是一个标量,而且 CNN特征向量用什么表示 特征向量的英文缩写_特征值_140 是一个 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_204 的矩阵。任何满足上述方程的 行向量 CNN特征向量用什么表示 特征向量的英文缩写_特征值_140 被称作 矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的左特征向量, CNN特征向量用什么表示 特征向量的英文缩写_特征值_202 被称作与左特征向量相关的特征值。对上述方程取转置,得:
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_208
将此等式与等式 (CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_209) 进行比较,可以立即得出 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的左特征向量与 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_211具有相同的特征值。此外,由于 $ A^{\textsf {T}}$ 的特征多项式与 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的特征多项式相同,所以CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的左特征向量的特征值与 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_211

对角化和特征分解(Diagonalization and the eigendecomposition)

假设 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的特征向量形成一个基,或者等价地,CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 个线性无关的特征向量 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_218 以及相关的特征值 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_219。特征值不需要是不同的。定义一个方阵 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_220,其列是 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18CNN特征向量用什么表示 特征向量的英文缩写_特征值_15 个线性无关的特征向量,
CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_223
由于 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_220 的每一列都是 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的特征向量,因此将 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 乘以 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_220CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_220的每一列按其关联的特征值缩放,
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_229
考虑到这一点,定义一个对角矩阵 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_230,其中每个对角元素 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_231 是与 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_220 的第 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_233 列相关联的特征值。然后
CNN特征向量用什么表示 特征向量的英文缩写_线性代数_234
因为 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_220 的列是线性无关的,所以 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_220 是可逆的。等式两边右乘 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_237
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_238
或者等式两边左乘 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_237 ,得
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_240
因此,CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 可以分解为由其特征向量组成的矩阵特征值沿对角线的对角矩阵以及特征向量矩阵的逆矩阵。这称为特征分解(eigendecomposition),它是一种相似变换。这样的矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 被称为相似于对角矩阵 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_243可对角化的。矩阵 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_220 是相似变换的基矩阵的变更change of basis matrix of the similarity transformation)。本质上,矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_243代表以两个不同基表示的相同线性变换。当将线性变换表示为 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_243

相反,假设矩阵 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 是可对角化的。设 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_249 是一个非奇异方阵,使得 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_250 是某个对角矩阵 CNN特征向量用什么表示 特征向量的英文缩写_特征值_251。左乘 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_249CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_253。因此,CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_249 的每一列必须是 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 的特征向量,其特征值是 CNN特征向量用什么表示 特征向量的英文缩写_特征值_251 的对应对角元素。由于 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_249列必须线性无关才能使 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_249 可逆,因此 CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18 存在 CNN特征向量用什么表示 特征向量的英文缩写_特征值_15线性无关的特征向量。进而,CNN特征向量用什么表示 特征向量的英文缩写_线性代数_18特征向量形成一个基当且仅当 A 是可对角化的

不可对角化的矩阵称为亏损的(defective)。对于有亏损的矩阵,特征向量的概念推广到广义特征向量,特征值的对角矩阵推广到 Jordan 范式。在代数闭域上,任何矩阵 A 都具有 Jordan 范式,因此允许广义特征向量的基和分解为广义特征空间。

惯性张量

采用直角坐标系的三个坐标轴为参考轴,一个刚体的惯性张量 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_262,以矩阵形式表达为
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_263
其中,矩阵的元素以方程表达为
CNN特征向量用什么表示 特征向量的英文缩写_特征值_264
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_265是刚体内部的微小体积元 CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_266的位置。惯性张量 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_267是个实值三阶对称矩阵,对角元素 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_268 分别为刚体对于 x-轴, y-轴,z-轴的转动惯量。非对角元素 CNN特征向量用什么表示 特征向量的英文缩写_特征向量_269 是刚体对于 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_148-轴和 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_271-轴的惯量积。根据谱定理,可以使惯性张量成为一个对角矩阵。所得到的三个特征值必定是正实值;三个特征向量必定正交。

换另外一种方法,我们需要求解特征方程
CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_272
也就是以下行列式等于零的三次方程:
CNN特征向量用什么表示 特征向量的英文缩写_特征向量_273
这方程的三个根 CNN特征向量用什么表示 特征向量的英文缩写_CNN特征向量用什么表示_274 都是正实的特征值。将特征值带入特征方程,再加上方向余弦(directional cosine)方程,CNN特征向量用什么表示 特征向量的英文缩写_特征值分解_275。就可以求到特征向量
CNN特征向量用什么表示 特征向量的英文缩写_线性代数_276
。这些特征向量都是刚体的惯量主轴;而这些特征值则分别是刚体对于惯量主轴的主转动惯量

其他

  1. 特征值和特征向量在PCA中的应用请移步PAC、SVD以及它们的联系之充分数学知识推导
  2. 因子分析、图的特征值、特征脸、应力张量薛定谔方程、分子轨域、振动分析中特征值和特征向量的应用请移步参考文献1或者2。

参考文献

  1. Eigenvalue and Eigenvector from wiki
  2. 特征值和特征向量 来自维基百科
  3. 两个特征值相等则特征向量是否相等?来自知乎