特征值和特征向量的本質概念


復習了一下線性代數,在B站上竟然點出了清華大學李永樂老師的考研沖刺班教程

好吧,就以題代練,重新感受了一下當年線代的熟悉操作。

翻來覆去,就是什么行列式,秩,極大無關組,齊次方程組,特征值和特征向量,對角陣,相似矩陣。。

解方程->矩陣相乘->特征值和特征向量

行列式就是矩陣的列向量在空間的構成的點連成的圖形的體積大小。

秩就是有幾個正交基和極大無關組類似

核心還是這個特征值和特征向量,

考慮一個問題,既然可逆矩陣可以和一個對角陣相似,特征值就是對角陣的對角線上的值,

也就是說任何一個可逆矩陣,都能映射到某個坐標體系中去(特征值、特征向量是復數,也可能不存在)

這個體系就是特征空間,特征空間會隨着矩陣的改變而改變,A*向量V=λ*向量V,在A的作用下,向量只做伸縮不做方向的變動。

參考:https://www.matongxue.com/madocs/228.html

如下圖所示,當向量v(綠色)和特征空間的基向量(A的特征向量)重合時,也就是,方向一致,向量v就成了特征向量,

不重合時,可以說是向量AV(紫色)是向量v(綠色)在A的特征空間的映射?:)我不知道這么說對不對,/(-o-)\

如果我們繼續用A乘向量Av,那么v將會朝着最大特征值的特征向量的方向移動,直到完全一致。

為什么乘一次無法將v變成A的特征向量方向呢?因為是A不止一個特征向量,

另一個問題,方陣(方陣才有特征值)和向量的乘法,就是對向量的兩類運動,一個是伸縮,一個旋轉,特征值分解后,特征值就是伸縮,兩兩相互正交的單位特征向量就是旋轉動作。

最大的特征值對應的特征向量指明了矩陣的運動的最大速度和方向,相當於這個矩陣的最大的特征,這個和主成分分析是不是有類似?圖像處理中,保留主要特征值,相當於圖像壓縮。

矩陣乘法就是線性函數,或者線性映射,本質是基改變,導致向量的坐標發生變化,是不是在不同的線性空間里的映射?

最后:特征值和特征向量的應用

說了這么多,可能有模友會問:到底特征值和特征向量有什么用呢?不會僅僅用來考試吧!

其實,特征值和特征向量在我們的生活中都是非常普遍的。

(1)可以用在研究物理、化學領域的微分方程、連續的或離散的動力系統中。例如,在力學中,慣量的特征向量定義了剛體的主軸。慣量是決定剛體圍繞質心轉動的關鍵數據;

(2)數學生態學家用來預測原始森林遭到何種程度的砍伐,會造成貓頭鷹的種群滅亡;

(3)著名的圖像處理中的PCA方法,選取特征值最高的k個特征向量來表示一個矩陣,從而達到降維分析+特征顯示的方法,還有圖像壓縮的K-L變換。再比如很多人臉識別,數據流模式挖掘分析等方面。

(4)在譜系圖論中,一個圖的特征值定義為圖的鄰接矩陣A的特征值,或者(更多的是)圖的拉普拉斯算子矩陣,Google的PageRank算法就是一個例子。

有一句話說得好:“只要有振動就有特征值,即振動的自然頻率”。如果你曾經彈過吉他,你已經求解了一個特征值問題。。。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM