簡單的理解特征值和特征向量的特征意義


1、矩陣基礎

矩陣是一個表示二維空間的數組,矩陣可以看做是一個變換。在線性代數中,矩陣可以把一個向量變換到另一個位置,或者說從一個坐標系變換到另一個坐標系。矩陣的“基”,實際就是變換時所用的坐標系。而所謂的相似矩陣,就是同樣的變換,只不過使用了不同的坐標系。線性代數中的相似矩陣實際上就是要使這些相似的矩陣有一個好看的外表,而不改變其變換的功用。

2、矩陣的特征方程式 

       AX = Xλ

方程左邊就是把向量x變到另一個位置;右邊是把向量x作了一個拉伸;

任意給定一個矩陣A,並不是對所有的向量x它都能拉長(縮短)。凡是能被矩陣A拉長(縮短)的向量就稱為矩陣A的特征向量(Eigenvector);拉長(縮短)的量就是這個特征向量對應的特征值(Eigenvalue)

對於實對稱矩陣來說,不同特征值對應的特征向量必定正交;我們也可以說,一個變換矩陣的所有特征向量組成了這個變換矩陣的一組基;

3、在層次分析法中(AHP) 最大特征根法確定權重

特征根在一定程度上反映了 成對比較矩陣(正互反陣)的總體特征。

所有的特征向量的集合構成了矩陣的基,特征向量是基,特征值反應矩陣在各個方向上的值,特征值的模則代表矩陣在每個基上的投影長度。

不同的特征向量就是矩陣不同的特點,特征值就是這些特點的強弱。

 

 

還請多多賜教。QQ:1954645115

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM