特征值在动态问题中具有十分重要的地位,基于$ Ax=\lambda x $,我们简要介绍一下特征值的相关概念。
以对矩阵A的加权 $ A,A^2,A^3,... $ 为例,假设你需要需要得到 $ A^{100} $。如下所示,在数次加权之后 $ A^{100} $ 会接近一个固定的值\(\left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right]\)。
eg.
$ A = \left[ \begin{matrix} 0.8 & 0.3 \\ 0.2 & 0.7 \end{matrix} \right] $ $ A^2 = \left[ \begin{matrix} 0.7 & 0.45 \\ 0.3 & 0.55 \end{matrix} \right] $ $ A^3 = \left[ \begin{matrix} 0.650 & 0.525 \\ 0.350 & 0.475 \end{matrix} \right] $ ... $ A = \left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right] $
这里的\(A^{100}\)是通过\(A\)的特征值得到的,而不是通过对100次连乘得到的。
在这里先给出特征矩阵和特征值的定义:
The basic equation is $ Ax = \lambda x $, The number $ \lambda $ is an engienvalue of $ A $.
大多数的\(2\times2\)矩阵都有两个特征值和特征向量。我们将用$det(A-\lambda I) = $的展示。
例1. 矩阵\(A\)有两个特征值,\(1\)和\(1/2\)。
$ A = \left[ \begin{matrix} 0.8 & 0.3 \\ 0.2 & 0.7 \end{matrix} \right] $ $ det\left[ \begin{matrix} 0.8-\lambda & 0.3 \\ 0.2 & 0.7-\lambda \end{matrix} \right]=\lambda^2-\frac{3}{2}+\frac{1}{2}=(\lambda - 1)(\lambda-\frac{1}{2}) \( 由此我们可以得到\)A\(的两个特征值\)\lambda = 1, \frac{1}{2}\(,并且计算得到\)x\(的值,\) A-I $ 和 $ A-\frac{1}{2}I $
$ (A-I)x_{1} = 0 $ 是 $ Ax_{1} = x_{1} \( \) (A-\frac{1}{2}I)x_{2} = 0 $ 是 $ Ax_{2} = \frac{1}{2}x_{2} $