[作者:byeyear,首發於cnblogs.com,轉載請注明。聯系:east3@163.com]
0. 我們可以將特征值與特征向量類比於信號與系統課程中的特征函數。在那里,系統對特征函數的作用相當於乘以一個(復)常數。
於是,我們可以將矩陣A想象為一個“系統”,輸入到該系統的“信號”x可分解為特征向量的加權和,
這樣,矩陣A這個“系統”對任意向量x的作用就可分解為A系統對特征向量作用的加權和。
1. 一個例子:隨機矩陣與其穩態向量q滿足Aq=q,此時 特征值λ=1,特征向量即穩態向量q。
2. 由Ax=λx,可以推出(A-λI)x=0。由於特征向量不能為0,該方程必須有非平凡解,因此A-λI不可逆;
所以det(A-λI)=0。據此可解出所有λ,再跟據λ可解出特征向量。det(A-λI)=0稱為特征方程。
3. 根據齊次線性方程組的特點,一個特征值對應的特征向量有無限多個,且對應於λ的所有特征向量加上零向量可以構成向量空間,稱為矩陣A對應於特征值λ的特征空間。
4. n階矩陣的特征方程是λ的n階方程,如果將特征向量限制在R中,那么特征方程未必有解,即不是所有的矩陣都有R域中的特征值;但每一個矩陣一定存在n個復數域中的特征值(k重根按k個特征值計)。
5. 設λ1,...λr是n階矩陣的r個相異特征值,v1,...vr是對應的r個特征向量,那么向量集{v1,...vr}線性無關。
6. 若存在可逆矩陣P使得兩個n階矩陣A,B滿足A=PBP-1,則稱A,B相似。
7. 若n階矩陣A,B相似,那么這兩者有相同的特征多項式,從而有相同的特征值(包括相同的代數重數)。但特征向量一般不同!!!
8. 特征向量的應用舉例
假設我們現在要分析xk+1=Axk,x0已知。如果我們能將x0分解為A的特征向量的線性組合,比如x0=c1v1+c2v2,v1,v2為A的特征向量,
那么上述遞歸方程就能有一個簡單的解法解出xk:
x1=Ax0
=A(c1v1+c2v2)
=c1Av1+c2Av2
=c1λv1+c2λv2
x2=Ax1
=A(c1λv1+c2λv2)
=c1λAv1+c2λAv2
=c1λ2v1+c2λ2v2
...
xk=c1λkv1+c2λkv2
9. n階矩陣可對角化的條件是A有n個線性無關的特征向量。
若A=PDP-1,D為對角陣,那么P的列向量是A的n個線性無關的特征向量,D的主對角線元素是A的對應於P中特征向量的特征值。
換言之,A可對角化的充分必要條件是有足夠多的特征向量形成Rn的基。這樣的基稱為特征向量基。
10. 某特征值對應的特征空間的維數小於或等於該特征值的代數重數。
11. 矩陣A可對角化的充分必要條件是所有不同特征空間的維數和為n,即每個特征值對應特征空間的維數等於該特征值的代數重數。
12. 若A可對角化,那么所有特征空間的基的向量的集合是Rn的特征向量基。
13. 若V是n維向量空間,W是m維向量空間,T是V到W的線性變換,B和C分別是V和W的基,那么T相對於基B和C的矩陣為:
M=[ [T(b1)]c ... [T(bn)]c ]
用M來表示V到W的變換:
[T(x)]c = M[x]B
直觀的解釋:V中的任意一個向量都能表示為基B中各向量的線性組合,因此,只要知道了B中各向量經變換T后在W中的“樣子”,就能知道V中任意向量經變換T后在W中的“樣子”。
若W=V,C=B,上式即簡化為:
[T(x)]B = [T]B[x]B
此時M=[T]B,稱為T相對於B的矩陣,或簡稱為T的B-矩陣。
14. 設A=PDP-1,D為n階對角矩陣,若Rn的基由P的列向量組成,那么D是變換x|->Ax的B-矩陣。
寫成表達式就是,若x|->Ax,那么[x]B|->D[x]B,[x]B是x在P的列向量所組成的基下的坐標。
上面兩個變換式x|->Ax和[x]B|->D[x]B描述的是相對於不同基的同一個線性變換。
這也解釋了什么叫做“相似”:兩個相似矩陣可用來描述(相對於不同基的)同一個線性變換。
實際上,上述表述中,D不一定要是對角矩陣。
設y=Ax,且A可表示成PDP-1,那么:
y=Ax
=> y=PDP-1x
=> P-1y=P-1PDP-1x
=> P-1y=DP-1x
=> (P-1y)=D(P-1x)
P-1y和P-1x可分別看作y和x在Rn的基P下的坐標。
對於差分方程xk+1=Axk,上式就成為:
P-1xk+1=D(P-1xk)
用w表示x在P下的坐標,就是:
wK+1=Dwk
矩陣A對角化后的最大優點是解耦了向量x的各分量。如果A可對角化,那么在A的特征向量基下,運算Ax將簡化為各方向上的縮放(Du)。
15.