【線性代數的本質】特征值和特征向量的本質


特征值和特征向量一直是我最疑惑的一個地方,雖然知道如何計算,但是一直不懂他所代表的意義,今天就來揭開他神秘的面紗!

特征值和特征向量

我們先來看一個線性變換的矩陣,並且考慮他所張成的空間,也就是過原點和向量尖端的直線:

在這個變換中,絕大部分的向量都已經離開了它們張成的空間,但是某些特殊向量的確留在它們張成的空間里,意味着矩陣對他的作用只是拉伸或者壓縮而已,如同一個標量。

如果一個向量留在它們張成的空間里,例如下面的 兩個向量,就是它們的特征向量,而被拉伸或者壓縮的倍數就是特征值。

那么特征值和特征向量有什么用呢?

例如我們考慮一個 3-D 空間的旋轉,如果能夠找到這個旋轉的特征向量,它們所在的直線就是旋轉軸(在這種情況下,特征值必須為1 ,因為不改變長度)。

特征向量的計算方法:

而這個等式的目的在於尋找一個 lambda,把它當作一個線性變換,也就是將調整變換后的空間壓縮到一個更低的維度上。

當然一個線性變換也可能沒有特征向量,例如一個90度的旋轉,所有的向量都已經改變了,但是如果我們求解上面的方程,會得到兩個復數解,沒有實數解,就代表沒有特征向量。

而且屬於單個特征值可能有多個特征向量,例如下面這個矩陣:

除了對角元以外的其他元素都為 0 的矩陣被稱為對角矩陣。

對於對角矩陣,它們對角線上的值就是特征值,它們列向量就是特征向量了。

同時,對角矩陣對於矩陣的多次計算非常有用,例如在矩陣多次與自己相乘的結果上更容易計算:

同時,特征基(能夠張成全空間的一組特征向量對應的特征值)也會在運算中起到非常大的作用。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM