線性代數之特征值與特征向量


[作者:byeyear,首發於cnblogs.com,轉載請注明。聯系:east3@163.com]

0. 我們可以將特征值與特征向量類比於信號與系統課程中的特征函數。在那里,系統對特征函數的作用相當於乘以一個(復)常數。

    於是,我們可以將矩陣A想象為一個“系統”,輸入到該系統的“信號”x可分解為特征向量的加權和,

    這樣,矩陣A這個“系統”對任意向量x的作用就可分解為A系統對特征向量作用的加權和。

1. 一個例子:隨機矩陣與其穩態向量q滿足Aq=q,此時 特征值λ=1,特征向量即穩態向量q。

2. 由Ax=λx,可以推出(A-λI)x=0。由於特征向量不能為0,該方程必須有非平凡解,因此A-λI不可逆;

    所以det(A-λI)=0。據此可解出所有λ,再跟據λ可解出特征向量。det(A-λI)=0稱為特征方程。

3. 根據齊次線性方程組的特點,一個特征值對應的特征向量有無限多個,且對應於λ的所有特征向量加上零向量可以構成向量空間,稱為矩陣A對應於特征值λ的特征空間。

4. n階矩陣的特征方程是λ的n階方程,如果將特征向量限制在R中,那么特征方程未必有解,即不是所有的矩陣都有R域中的特征值;但每一個矩陣一定存在n個復數域中的特征值(k重根按k個特征值計)。

5. 設λ1,...λr是n階矩陣的r個相異特征值,v1,...vr是對應的r個特征向量,那么向量集{v1,...vr}線性無關。

6. 若存在可逆矩陣P使得兩個n階矩陣A,B滿足A=PBP-1,則稱A,B相似。

7. 若n階矩陣A,B相似,那么這兩者有相同的特征多項式,從而有相同的特征值(包括相同的代數重數)。但特征向量一般不同!!!

8. 特征向量的應用舉例

    假設我們現在要分析xk+1=Axk,x0已知。如果我們能將x0分解為A的特征向量的線性組合,比如x0=c1v1+c2v2,v1,v2為A的特征向量,

    那么上述遞歸方程就能有一個簡單的解法解出xk

    x1=Ax0

       =A(c1v1+c2v2)

       =c1Av1+c2Av2

       =c1λv1+c2λv2

    x2=Ax1

        =A(c1λv1+c2λv2)

        =c1λAv1+c2λAv2

        =c1λ2v1+c2λ2v2

    ...

    xk=c1λkv1+c2λkv2

9. n階矩陣可對角化的條件是A有n個線性無關的特征向量。

    若A=PDP-1,D為對角陣,那么P的列向量是A的n個線性無關的特征向量,D的主對角線元素是A的對應於P中特征向量的特征值。

    換言之,A可對角化的充分必要條件是有足夠多的特征向量形成Rn的基。這樣的基稱為特征向量基。

10. 某特征值對應的特征空間的維數小於或等於該特征值的代數重數。

11. 矩陣A可對角化的充分必要條件是所有不同特征空間的維數和為n,即每個特征值對應特征空間的維數等於該特征值的代數重數。

12. 若A可對角化,那么所有特征空間的基的向量的集合是Rn的特征向量基。

13. 若V是n維向量空間,W是m維向量空間,T是V到W的線性變換,B和C分別是V和W的基,那么T相對於基B和C的矩陣為:

      M=[ [T(b1)]c  ...  [T(bn)]c ]

      用M來表示V到W的變換:

      [T(x)]c = M[x]B

      直觀的解釋:V中的任意一個向量都能表示為基B中各向量的線性組合,因此,只要知道了B中各向量經變換T后在W中的“樣子”,就能知道V中任意向量經變換T后在W中的“樣子”。

      若W=V,C=B,上式即簡化為:

      [T(x)]B = [T]B[x]B

       此時M=[T]B,稱為T相對於B的矩陣,或簡稱為T的B-矩陣。

14. 設A=PDP-1,D為n階對角矩陣,若Rn的基由P的列向量組成,那么D是變換x|->Ax的B-矩陣。

      寫成表達式就是,若x|->Ax,那么[x]B|->D[x]B,[x]B是x在P的列向量所組成的基下的坐標。

      上面兩個變換式x|->Ax和[x]B|->D[x]B描述的是相對於不同基的同一個線性變換。

      這也解釋了什么叫做“相似”:兩個相似矩陣可用來描述(相對於不同基的)同一個線性變換。

      實際上,上述表述中,D不一定要是對角矩陣。

     設y=Ax,且A可表示成PDP-1,那么:

     y=Ax

     => y=PDP-1x

     => P-1y=P-1PDP-1x

     => P-1y=DP-1x

     => (P-1y)=D(P-1x)

     P-1y和P-1x可分別看作y和x在Rn的基P下的坐標。

     對於差分方程xk+1=Axk,上式就成為:

     P-1xk+1=D(P-1xk)

     用w表示x在P下的坐標,就是:

     wK+1=Dwk

     矩陣A對角化后的最大優點是解耦了向量x的各分量。如果A可對角化,那么在A的特征向量基下,運算Ax將簡化為各方向上的縮放(Du)。

 15. 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM