此部分強烈推薦3Blue1Brown的線性代數本質的視頻,對本文許多結論都有簡單明了的解釋。另外對於概念與常見的交換律等性質不在此討論,請參考原書或者任意線代書籍。
1. 行列式
行列式的幾何意義是線性變換前后單位基對應的面積/體積的變動比率(按照右手坐標系分正負),如果為\(0\)則代表變換降維丟失部分信息,面積/體積變為0。線性相關之類的共線/共面也與此原因符合。就叉乘\(v\times w\)而言,可以將求行列式的過程看作一個將三維向量\(a=[x,y,z]\)投影到數軸的過程。這個過程相當於與某向量\(P\)做點乘。求叉積相當於求以下公式內的向量\(P\)。從行列式的幾何意義上來看,點\(P\)必須是與\(v,w\)垂直方向上,長度等於兩個向量平行四邊形面積的向量。因此,取最簡單的\([x,y,z]=[i,j,k]\)可得解。

2. 矩陣
- 矩陣可以被看作標准基線性變換至對應列向量的線性變換。
- 點乘可以看作標准基\((i,j,k)\)變換到\(a\)向量所對應直線的過程,因為對稱性,基到\(a\)的投影與\(a\)到基的投影一致,故可將\(3x3\)的矩陣簡化為\(1x3\)的矩陣\(a^T\)。延伸來講,如果有任何線性變換將高維向量投影至某一個一維數軸上,則線性變換與計算該數軸方向的某向量點積是一樣的。
- 正交矩陣有\(R^TR=RR^T=I\)的特征,其行列式為1。
- 逆矩陣的計算方法可以利用cofactor,也就是排開一行一列后剩下的行列式乘以該位置的正負,具體如下。

- Cramer Rule的講解參考第4章內MT算法的筆記,也可以參考3Blue1Brown的最后一章。本書的Cramer Rule推導更為簡單直接,使用了平行四邊形同高體積不變的特性。

- 在做空間轉換的時候,如果有\(Av\),並且\(v\)是局部坐標系,我們需要\(A\)包含局部坐標系的三個基在全局坐標系內的含義。注意,在空間轉換的時候要時刻注意列的基向量使用什么坐標語言來描述的,不能想當然的亂乘。這個引來了相似矩陣,即\(A^{-1}MA\)的操作其實是先通過\(A\)進入標准空間,在標准空間內進行形變,最后還原到特殊空間。
3. 特征值分解與奇異值分解
特征向量指的是在線性變換后仍在同一個方向上的向量,特征值指的是特征向量在線性變換后長度的變動比(含方向上的正負號)。通常特征向量可以表明線性變換的一些特征,例如旋轉時的旋轉軸。如果特征向量足夠的多,可以進行特征對角化的操作,即將矩陣\(A\)寫成\(PDP^{-1}\)的形式,首先將標准基轉換為特征向量基,進行特征值的拉伸形變,再還原至標准基。如果是對稱矩陣則額外擁有兩個特征向量彼此正交的關系,即其特征向量矩陣\(P^{-1}=P^T\)。
特征值分解的結果通常是方陣,而奇異值分解SVD的方法則有可能使用更少的數字來記錄另一種分解效果\(A=USV^T\),其中\(U,T\)為兩個不同的正交矩陣包含不同的縱列左右奇異向量,\(S\)是一個對角線矩陣包含奇異值。奇異值與特征值之間存在轉換關系,設\(M=AA^t=(USV^T)(USV^T)^T=US^2U^T\)。如此可得對稱矩陣\(M\)的特征值分解並算出\(U\)。其次可得\(V=(S^{-1}U^TA)^T\)。對於特征值非負的對稱矩陣來說,奇異值等於特征值。具體其他的SVD算法可以參考其他文章,此處附一個奇異值分解的原理與奇異值分解的幾何理解。在后者提到了正交矩陣代表旋轉,對角矩陣代表拉伸的一個意義。
