都說矩陣其實就是線性映射,你明白不?反正一開始我是不明白的;
線性映射用矩陣表示:(很好明白的)
有兩個線性空間,分別為V1與V2, V1的一組基表示為
,V2的一組基表示為
;(注意哦,維度可以不一樣啊,反正就是線性空間啊),
1, 現在呢,有一個從V1到V2的映射F, 它可以把V1中的一組基都映射到線性空間V2中去,所以有:
用矩陣可以表示為:
2,現在我們把在V1中有一個向量A,經過映射F變為了向量B,用公式表示為:
所以呢,我們可以把矩陣看作是線性變換或線性映射;
矩陣的特征值與特征向量:
應該說是線性映射的特征值與特征向量,因為映射可以用矩陣表示,所以也可以說是矩陣的特征值與特征向量,當線性映射所在的表示為(100;010;001)的形式時,它們的特征值也特征向量相同;
1,用線性映射表示:
在空間V中的一個線性映射F,若在空間V的存在一個向量
,滿足下面:
2,用矩陣表示:
把上面的公式改改,把矩陣A表示映射,用坐標
來表示向量
,可以得到:
因為向量
映射后結果為
,所以,映射前后的線性空間是沒有變化的,所以映射前后可以用同一組基
表示,所以有:
最后得到:
特征值與特征向量的幾個定理 :
需要強調地是:對於一個N重根的特征值,它的特征向量的基礎解系的個數是小於或等於N的,即上面說的幾何重復度小於或等於代數重復度; 對於不是重根的特征值,只能對應一個特征向量的基礎解系;(基礎解系就是特征向量組成的線性空間的基啊);
舉兩個例子:
上面兩個矩陣中,左邊的矩陣的特征值為二重根1,它的特向量的基礎解系只有一個:(1,0); 右邊矩陣的特征值為二重根1,它的特征向量的基礎解系有兩個:(1,0)和(0,1);
上面的矩陣中,左邊的矩陣的特征值為1和2,特征值1對應的特征向量的基礎解系為(1,0,0); 特征值2對應的特征向量的基礎解系只有一個:(1,1,0);
右邊的矩陣的特征值為1和2, 特征值1對應的特征向量的基礎解系為(1,0,0); 特征值2對應的特征向量的基礎解系有兩個,分別為:(1,0,1)和(0,1,-1);
(說明:在重跟的情況下,選擇的基礎解系不是唯一的,不同的基礎解系是可以互相表示的, 在不同基礎解系下表示的線性空間是唯一的;)
看看特征向量到底是什么?
對於一個映射,特征向量才是本質有用的,特征值的作用不大。一個特征值對應了一個特征向量族(因為可以乘以一個系數,可以它的個數是無窮的),而一個特征向量只能對應一個特征值;
在一個映射中,不同的特征值對應的特征向量組成的線性空間中的向量的方向(負也表示不變)不會發生變化,只是scale變了,縮放倍數即為特征值;
例如:對於不是非重根的特征值的特征向量只有一個,它組成的線性空間是一維的,在映射過程中,在它上面的向量的方向不變; 對於多個重根的特征值的特征向量可以有多個,所以它們組成的線性空間是多維的,在這個線性空間中的向量在映射過程中的方向也是不變的;