线性代数笔记


说明

课堂教的云里雾里,非常懵,其实线性代数的思路很简单
把细节忘了都行,把思路消化

矩阵就是向量的映射

矩阵就是向量的映射

矩阵就是向量的映射

也可以看做对空间的线性变换

类似f(g(x)),多个矩阵相继变换A(B(x))简写作ABx,即\(x \rightarrow_{B} \rightarrow_{A} = ABx\)

相似(一切的起始点)

同一个线性变换,在不同的基下,是相似的
即若\(PAP^{-1} = B\),A、B相似,这步看做 :
向量x首先经过基变换\(P^{-1}\)映射到某个基下,即\(P^{-1}x\)
然后在该基下做线性变换A,即\(AP^{-1}x\)
再变换回来,即\(PAP^{-1}x\)
这与直接对x做同一个变换B,是一样的

对于一个线性变换A,我们希望在某个基下简单的表示它

对角矩阵就是非常好的表示方法,简单,正交
那么,如何找到一个良好的基变换,把某个线性变换变成对角矩阵?
假设我们有变换B,我们希望求出它在某个基下的对角矩阵A
\(PAP^{-1} = B\)\(PA = BP\)
同时,A是一个对角矩阵

\[\left[ \begin{matrix} \lambda_1 & 0 & 0\\ 0 & \lambda_2 & 0 \\ 0 & 0 & \lambda_3 \end{matrix} \right] \]

把每一列单独拿出来看,我们就有

\(Bp_1 = \lambda_1 p_1\)
\(Bp_2 = \lambda_2 p_2\)
\(Bp_3 = \lambda_3 p_3\)

非常自然的,我们可以知道求特征值、特征向量的源起
很明显,所有特征向量组合起来就是基变换 P
同时,由\(Ap = \lambda p\)可知,特征向量就是,该线性变换下,保持方向不变的向量
特征值就是该向量在该线性变换下的伸缩倍数

线性变换

矩阵是映射,自然就有单射、满设、一一映射

这里只关心n阶方阵,一一映射的线性变换,自然可逆,也就是拥有逆变换(逆矩阵)

秩为r意味着把整个线性空间,映射到一个r维的线性空间

数值算法

正交基

正交基有很多良好的性质,可以采用施密特正交化把一个普通基变成正交基

LU分解

对矩阵做LU分解之后,可以很容易的做其他各种计算,同时运算量基本相同

Jacobi方法

求解实对称矩阵的所有特征值的算法

QR分解

求对称和非对称矩阵的所有特征值的算法

反幂法


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM