0%

特征向量和特征值的几何本质

子矩阵的特征值编码了原矩阵特征向量的隐藏信息。

$$ |v_i,_j|^2=\frac{\prod_{k=1}^{n-1}(λ_i(A)-λ_k(M_j))}{\prod_{k=1,k\not=i}^{n-1}(λ_i(A)-λ_k(A))}$$

$A$为$n$阶矩阵,若数$λ$和$n$维非$0$列向量$x$满足$Ax=λx$,那么数$λ$称为$A$的特征值,$x$称为$A$的对应于特征值$λ$的特征向量。

它的物理意义是:

$$一个矩阵A乘以一个向量x,$$

$$就相当于做了一个线性变换λx。$$

$$方向仍然保持不变,$$

$$只是拉伸或者压缩一定倍数λ。$$

特征向量和特征值的几何本质,其实就是:

$$空间矢量的旋转和缩放。$$

线性变换

线性变换 A 对于特征空间只起到“扩张(或者压缩)”的作用(扩张后还是同样的特征空间)

求解特征向量

按照传统解法:

计算特征多项式→求解特征值→求解齐次线性方程组,得出特征向量。

$$Ax=λx \Rightarrow Ax=λEx \Rightarrow (λE-A)x=0$$

全新的方法:

$$ |v_i,_j|^2=\frac{\prod_{k=1}^{n-1}(λ_i(A)-λ_k(M_j))}{\prod_{k=1,k\not=i}^{n-1}(λ_i(A)-λ_k(A))}$$

其中:

$v_i,_j$为特征值$λ_i$对应特征向量的第$j$个元素;

$λ_i(A)$ 为矩阵$A$的第$i$个特征向量;

$M_j$ 为矩阵$A$的第$j$个余子式,$λ_k(M_j)$是该主子式的第$k$个特征值.

通过删除原始矩阵的行和列,创建子矩阵。

子矩阵和原始矩阵的特征值组合在一起,就可以计算原始矩阵的特征向量。

简而言之,已知特征值,一个方程式就可以求得特征向量。

参考文献

Eigenvectors from Eigenvalues

Eigenvalues: the Rosetta Stone for Neutrino Oscillations in Matter

写文不易,感谢支持!
Writing is not easy. Thank you for your support.