特征值(Eigenvalues)和特征向量(Eigenvectors)的简单介绍


特征值在动态问题中具有十分重要的地位,基于$ Ax=\lambda x $,我们简要介绍一下特征值的相关概念。

以对矩阵A的加权 $ A,A^2,A^3,... $ 为例,假设你需要需要得到 $ A^{100} $。如下所示,在数次加权之后 $ A^{100} $ 会接近一个固定的值\(\left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right]\)

eg.
$ A = \left[ \begin{matrix} 0.8 & 0.3 \\ 0.2 & 0.7 \end{matrix} \right] $ $ A^2 = \left[ \begin{matrix} 0.7 & 0.45 \\ 0.3 & 0.55 \end{matrix} \right] $ $ A^3 = \left[ \begin{matrix} 0.650 & 0.525 \\ 0.350 & 0.475 \end{matrix} \right] $ ... $ A = \left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right] $

这里的\(A^{100}\)是通过\(A\)的特征值得到的,而不是通过对100次连乘得到的。

在这里先给出特征矩阵和特征值的定义:
The basic equation is $ Ax = \lambda x $, The number $ \lambda $ is an engienvalue of $ A $.

大多数的\(2\times2\)矩阵都有两个特征值和特征向量。我们将用$det(A-\lambda I) = $的展示。

例1. 矩阵\(A\)有两个特征值,\(1\)\(1/2\)
$ A = \left[ \begin{matrix} 0.8 & 0.3 \\ 0.2 & 0.7 \end{matrix} \right] $ $ det\left[ \begin{matrix} 0.8-\lambda & 0.3 \\ 0.2 & 0.7-\lambda \end{matrix} \right]=\lambda^2-\frac{3}{2}+\frac{1}{2}=(\lambda - 1)(\lambda-\frac{1}{2}) \( 由此我们可以得到\)A\(的两个特征值\)\lambda = 1, \frac{1}{2}\(,并且计算得到\)x\(的值,\) A-I $ 和 $ A-\frac{1}{2}I $

$ (A-I)x_{1} = 0 $ 是 $ Ax_{1} = x_{1} \( \) (A-\frac{1}{2}I)x_{2} = 0 $ 是 $ Ax_{2} = \frac{1}{2}x_{2} $


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM