特征值(Eigenvalues)和特征向量(Eigenvectors)的簡單介紹


特征值在動態問題中具有十分重要的地位,基於$ Ax=\lambda x $,我們簡要介紹一下特征值的相關概念。

以對矩陣A的加權 $ A,A^2,A^3,... $ 為例,假設你需要需要得到 $ A^{100} $。如下所示,在數次加權之后 $ A^{100} $ 會接近一個固定的值\(\left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right]\)

eg.
$ A = \left[ \begin{matrix} 0.8 & 0.3 \\ 0.2 & 0.7 \end{matrix} \right] $ $ A^2 = \left[ \begin{matrix} 0.7 & 0.45 \\ 0.3 & 0.55 \end{matrix} \right] $ $ A^3 = \left[ \begin{matrix} 0.650 & 0.525 \\ 0.350 & 0.475 \end{matrix} \right] $ ... $ A = \left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right] $

這里的\(A^{100}\)是通過\(A\)的特征值得到的,而不是通過對100次連乘得到的。

在這里先給出特征矩陣和特征值的定義:
The basic equation is $ Ax = \lambda x $, The number $ \lambda $ is an engienvalue of $ A $.

大多數的\(2\times2\)矩陣都有兩個特征值和特征向量。我們將用$det(A-\lambda I) = $的展示。

例1. 矩陣\(A\)有兩個特征值,\(1\)\(1/2\)
$ A = \left[ \begin{matrix} 0.8 & 0.3 \\ 0.2 & 0.7 \end{matrix} \right] $ $ det\left[ \begin{matrix} 0.8-\lambda & 0.3 \\ 0.2 & 0.7-\lambda \end{matrix} \right]=\lambda^2-\frac{3}{2}+\frac{1}{2}=(\lambda - 1)(\lambda-\frac{1}{2}) \( 由此我們可以得到\)A\(的兩個特征值\)\lambda = 1, \frac{1}{2}\(,並且計算得到\)x\(的值,\) A-I $ 和 $ A-\frac{1}{2}I $

$ (A-I)x_{1} = 0 $ 是 $ Ax_{1} = x_{1} \( \) (A-\frac{1}{2}I)x_{2} = 0 $ 是 $ Ax_{2} = \frac{1}{2}x_{2} $


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM