此篇文章以中文標題,是為了主張在國外的數學研究環境下面對國內研究生應試,因此以中文標題。文章中將幾乎不會出現英文
\(λ\)英文為lambda
轉載請說明出處
線性代數\(Ax=λx\)
這篇文章主要講考研數學的重點之一,也是線性代數(數學專業中這一部分會並入高等代數中,實際上線性代數是對這一部分最精確的描述,如MIT等大學采用的方式)中關於“變化(change)”的一部分。微分即是對連續函數變化的討論。
\(Ax=λx\)是基本公式。
行列式\(|A-λI|\)采用考研方式,原文是\(det(A-λI)\),后不贅述。
特征值簡介(基礎)
\(Ax=λx\)意為特征向量\(x\)在乘\(A\)后時保持相同的方向。而\(λ\)特征值為特定向量\(x\)的變化率。
- 特征向量 \(x\) 與 \(Ax\) 位於同一條線上:\(Ax=λx\)。特征值是\(λ\)
- 如果 \(Ax=λx\) 那么 \(A^2x=λ^2x\) 並且 \(A^{-1}x=λ^{-1}x\)且\((A+cI)x=(λ+c)x\):\(x\)是相同的
- 如果 \(Ax=λx\) 那么 \((A-λI)x=0\) 且 \(A-λI\)是奇異的,並且\(|A-λI|=0\)。\(n\)個特征值。
- 通過\(|A|=(λ_1)(λ_2)...(λ_3)\)和對角線和\(\Sigma{a_{nn}}=\Sigma{λ}\)檢查特征值\(λ\)
- 投影矩陣的\(λ=1和0\)。反射矩陣的\(λ=1和-1\)。旋轉矩陣的\(λ=e^{iθ}和e^{-iθ}\):復數!
我們想要當 \(λ\) 乘以 \(A\) 時不會改變方向的特征向量 \(x\)。
幾乎所有的向量在乘以\(A\)的時候都會更改方向,但某些異常向量 \(x\) 與 \(Ax\) 方向相同。這些是特征向量。
而特征值\(λ\)告訴我們特征向量的狀態(變化率或不變),當其為0時,意味特征向量\(x\)在零空間。
注意:特征向量是不唯一但是方向唯一的。而\(A\)列向量是由\(A\)的特征向量組合而成的。解決諸如\(A^{100}\)之類的變化問題使用的是特征值。因為特征值是特定向量的變化率,所以當特征值為0到1之間時,通過\(A^{100}\)的變換,這個特征值將會變成一個很小的接近於0的向量。
附錄:Markov矩陣指的是最大特征值為1的矩陣,這種矩陣\(n(n\to+\infty)\)次冪\(A^n\)必將達到穩定態(原因如上),Google使用Markov矩陣指導用戶搜索。
計算n階矩陣的特征值
當且僅當\(A-λI\)奇異時,數字\(λ\)是\(A\)的特征值。
- 計算\(A-λI\)的行列式。沿對角線減去λ,該行列式以\(λ^n\)或\(-λ^n\)開頭。這是一個\(λ\)的\(n\)次多項式。
- 求解\(|A-λI|\)以找到多項式的根。這\(n\)個根是\(A\)的\(n\)個特征值。它們使\(A-λI\)奇異。
- 對於每個特征值\(λ\),求解\((A-λI)x=0\)以找到特征向量\(x\)。
行列式和跡
- \(n\)個特征值的積等於行列式
- \(n\)個特征值的和等於n個對角線元素的總和
- A的跡\(=\Sigma{a_{nn}}=\Sigma{λ}\)
矩陣對角化(\(AX=XΛ\))(基礎,考點:對角矩陣,相似矩陣與相似對角化)
- \(AX=XΛ\)的列即\(Ax_k=λ_kx_k\)。特征矩陣\(Λ\)是對角化的。
- \(X\) 中的 \(n\) 個獨立特征向量對角化 \(A\), \(A=XΛX^{-1}且Λ=X^{-1}AX\)
- 特征向量矩陣 \(X\) 也對角化所有的冪 \(A^k\): \(A^k=XΛ^kX^{-1}\)
- 用\(u^k=A^ku_0=XΛ^kX^{-1}u_0=c_1(λ_1)^kx_1+...+c_n(λ_n)^kx_n\)求解\(u_{k+1}=Au_{k}\)
- 沒有相等的特征值=\(X\)可逆且\(A\)能夠對角化;存在相等的特征值=\(A\)可能有太少的線性無關(independent)特征向量。那么\(X^{-1}\)不存在。
- 每個矩陣\(C=B^{-1}AB\)都有與A相同的特征值。這些\(C\)與A相似。
注:\(Λ\)是\(λ\)的希臘文大寫形式,意為\(λ\)存在於特征(值)矩陣\(Λ\)的對角線上。
相似矩陣
所有矩陣\(A=BCB^{-1}\)都是相似的。它們都共享 \(C\) 的特征值。但是,不是具有相同的特征值的矩陣都是相似矩陣。
如果兩個矩陣相似,則它們具有相同的特征值和相同數量的獨立特征向量(但可能不相同的特征向量)。
當我們對角化 \(A\) 時,我們會找到一個與 \(A\) 相似的對角矩陣(特征矩陣) \(Λ\)。
可見我們是利用相似矩陣的性質,然后將\(B、C\)分別換成特征向量矩陣\(X\)和特征矩陣\(Λ\)來進行矩陣對角化的,也就是相似對角化。
結論
- 所有存在n個不重復特征值的矩陣都能對角化。
- 可逆指的是特征值不為0;對角化指的是特征向量(對\(X\)來說太少或太多)。兩者沒有關系。
- 對應於n個不同特征值的特征向量\(x_1, ..., x_j\)應是線性無關的,才能對角化A。所有存在n個不重復特征值的矩陣都能對角化。
實對稱矩陣(正交,二次型都是實對稱矩陣)
寫本篇時作者沒有帶考研書籍,可能不切合考研重點。
實對稱矩陣(Symmetric Matrix)\(S\)有\(n\)個實特征值\(λ_i\)以及\(n\)個歸一化正交的特征向量\(q_1,...,q_n\).
實對稱矩陣是理論和應用中最重要的矩陣,它是一種特殊的與對角矩陣相似的矩陣。
- 實對稱矩陣(Symmetric Matrix)只有實特征值。
- 實對稱矩陣的特征向量可以歸一化正交。
- 所有實特征矩陣都能對角化:\(S=QΛQ^{-1}=QΛQ^T\),注意因為實特征矩陣的特征向量歸一化正交,也可以\(S=QΛQ^T\)。
- \(S\)的正特征值數等於正樞軸(pivot,化成行階梯行最簡式可得)數。二次型的正慣性系數和負慣性系數即特征值的正負個數,因為相似矩陣的性質。
因此有\(S=QΛQ^{-1}=QΛQ^T=λ_1q_1q_1^T+...+λ_nq_nq_n^T\)。
共軛對
正定矩陣
具有正特征值的對稱矩陣稱之為正定矩陣。例如:2x2矩陣S的滿足\(a>0\)及\(ac-b^2>0\)正定。
可見,正定矩陣同時也具有正的主元。
注意前面提到的基本性質:
- \(n\)個特征值的積等於行列式
- \(n\)個特征值的和等於n個對角線元素的總和
- A的跡\(=\Sigma{a_{nn}}=\Sigma{λ}\)
基於能量的定義(二次型)
推導
\(Sx=λx\)
\(x^TSx=x^Tλx\)
譯名問題
reduced row echelon form 譯為 行最簡型
pivot 譯為 主元
ChangeLog
10月01日 21:46 完成特征值簡介小節。下一章矩陣對角化將是很重要的內容,明天再寫吧。
10月02日 10:46 完成相似矩陣與相似對角化章節。這里應注意將對角矩陣和相似矩陣應結合在一起看。
10月07日 12:35 實對稱矩陣(二次型),下來寫共軛對和正定矩陣。
10月22日 12:18 文章結束。轉載請說明出處。
11月12日 16:41 修改了一些可能引起爭議的描述