說明
課堂教的雲里霧里,非常懵,其實線性代數的思路很簡單
把細節忘了都行,把思路消化
矩陣就是向量的映射
矩陣就是向量的映射
矩陣就是向量的映射
也可以看做對空間的線性變換
類似f(g(x)),多個矩陣相繼變換A(B(x))簡寫作ABx,即\(x \rightarrow_{B} \rightarrow_{A} = ABx\)
相似(一切的起始點)
同一個線性變換,在不同的基下,是相似的
即若\(PAP^{-1} = B\),A、B相似,這步看做 :
向量x首先經過基變換\(P^{-1}\)映射到某個基下,即\(P^{-1}x\)
然后在該基下做線性變換A,即\(AP^{-1}x\)
再變換回來,即\(PAP^{-1}x\)
這與直接對x做同一個變換B,是一樣的
對於一個線性變換A,我們希望在某個基下簡單的表示它
對角矩陣就是非常好的表示方法,簡單,正交
那么,如何找到一個良好的基變換,把某個線性變換變成對角矩陣?
假設我們有變換B,我們希望求出它在某個基下的對角矩陣A
\(PAP^{-1} = B\)即\(PA = BP\)
同時,A是一個對角矩陣
把每一列單獨拿出來看,我們就有
\(Bp_1 = \lambda_1 p_1\)
\(Bp_2 = \lambda_2 p_2\)
\(Bp_3 = \lambda_3 p_3\)
非常自然的,我們可以知道求特征值、特征向量的源起
很明顯,所有特征向量組合起來就是基變換 P
同時,由\(Ap = \lambda p\)可知,特征向量就是,該線性變換下,保持方向不變的向量
特征值就是該向量在該線性變換下的伸縮倍數
線性變換
矩陣是映射,自然就有單射、滿設、一一映射
這里只關心n階方陣,一一映射的線性變換,自然可逆,也就是擁有逆變換(逆矩陣)
秩為r意味着把整個線性空間,映射到一個r維的線性空間
數值算法
正交基
正交基有很多良好的性質,可以采用施密特正交化把一個普通基變成正交基
LU分解
對矩陣做LU分解之后,可以很容易的做其他各種計算,同時運算量基本相同
Jacobi方法
求解實對稱矩陣的所有特征值的算法
QR分解
求對稱和非對稱矩陣的所有特征值的算法