線性代數筆記


說明

課堂教的雲里霧里,非常懵,其實線性代數的思路很簡單
把細節忘了都行,把思路消化

矩陣就是向量的映射

矩陣就是向量的映射

矩陣就是向量的映射

也可以看做對空間的線性變換

類似f(g(x)),多個矩陣相繼變換A(B(x))簡寫作ABx,即\(x \rightarrow_{B} \rightarrow_{A} = ABx\)

相似(一切的起始點)

同一個線性變換,在不同的基下,是相似的
即若\(PAP^{-1} = B\),A、B相似,這步看做 :
向量x首先經過基變換\(P^{-1}\)映射到某個基下,即\(P^{-1}x\)
然后在該基下做線性變換A,即\(AP^{-1}x\)
再變換回來,即\(PAP^{-1}x\)
這與直接對x做同一個變換B,是一樣的

對於一個線性變換A,我們希望在某個基下簡單的表示它

對角矩陣就是非常好的表示方法,簡單,正交
那么,如何找到一個良好的基變換,把某個線性變換變成對角矩陣?
假設我們有變換B,我們希望求出它在某個基下的對角矩陣A
\(PAP^{-1} = B\)\(PA = BP\)
同時,A是一個對角矩陣

\[\left[ \begin{matrix} \lambda_1 & 0 & 0\\ 0 & \lambda_2 & 0 \\ 0 & 0 & \lambda_3 \end{matrix} \right] \]

把每一列單獨拿出來看,我們就有

\(Bp_1 = \lambda_1 p_1\)
\(Bp_2 = \lambda_2 p_2\)
\(Bp_3 = \lambda_3 p_3\)

非常自然的,我們可以知道求特征值、特征向量的源起
很明顯,所有特征向量組合起來就是基變換 P
同時,由\(Ap = \lambda p\)可知,特征向量就是,該線性變換下,保持方向不變的向量
特征值就是該向量在該線性變換下的伸縮倍數

線性變換

矩陣是映射,自然就有單射、滿設、一一映射

這里只關心n階方陣,一一映射的線性變換,自然可逆,也就是擁有逆變換(逆矩陣)

秩為r意味着把整個線性空間,映射到一個r維的線性空間

數值算法

正交基

正交基有很多良好的性質,可以采用施密特正交化把一個普通基變成正交基

LU分解

對矩陣做LU分解之后,可以很容易的做其他各種計算,同時運算量基本相同

Jacobi方法

求解實對稱矩陣的所有特征值的算法

QR分解

求對稱和非對稱矩陣的所有特征值的算法

反冪法


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM