注:下文若不声明,统一为三维向量。
向量:
定义:
一般地,向量为一条从原点出发的一条有向线段。
通过终止点的坐标来表示: \(\begin{bmatrix}x\\y\\z\end{bmatrix}\)
性质:
加法:\(\vec{v}+\vec{w}=\begin{bmatrix}x_1\\y_1\\z_1\end{bmatrix}+\begin{bmatrix}x_2\\y_2\\z_2\end{bmatrix}=\begin{bmatrix} x_1 +x_2\\y_1 + y_2\\z_1 + z_2\end{bmatrix}\)
可以把向量视为从起点到终点的运动,则加法的结果与原来的运动效果是一样的。
将它们平移使得 \(\vec{v}\) 和 \(\vec{w}\) 首尾相接,则加法之后的向量的终点即为平移后路径的终点。
数乘:
\(k\vec{v}=\begin{bmatrix}kx\\ky\\kz\end{bmatrix}\)
即向量 \(\vec{v}\) 乘 \(k\) 为在向量的每一维乘 \(k\) 。
可以视为将 \(\vec{v}\) 代表的线段伸缩 \(k\) 倍,其中,当 \(k<0\) 时,向量方向相反,长度相同。
线性组合:
\(\vec{v}\) 和 \(\vec{w}\) 的线性组合为:\(a\vec{v}+b\vec{w}\)
这是在向量的加法和数乘基础之上的。
可以发现的是,大部分情况下, \(\vec{v}\) 和 \(\vec{w}\) 的线性组合可以到达三维空间中的所有点,但有几种特殊情况:
\(1.\) 其中一个向量处在另外两个向量所形成的平面中,这时,只能到达这个平面中的点。
\(2.\) 其中两个向量处在另外一个向量所形成的线上,这时,只能到达这个线段中的点。
对于第 \(1\) 种情况,即为 一个向量可以被其他向量线性组合表示出来 。
对于第 \(2\) 种情况,同理。
把 \(\vec{v}\) 和 \(\vec{w}\) 线性组合所构成的向量集合成为 张成的空间 。
当一组向量中,至少有一个向量能被其他向量表示出来,则称其为 线性相关 ,否则,称为 线性无关 。
基向量:
描述每一个维度的单位向量。
例:三维向量中的基向量为:\(\vec{i}\) , \(\vec{j}\) 和 \(\vec{w}\) ,各代表 \(x\) ,\(y\) 和 \(z\) 轴向量对应的长度。
可以发现,在基向量所能张成的空间中,所有向量都可以由基向量的线性组合所表示 。
秩:
最大线性无关组的向量数。
行秩 \(=\) 列秩。
当矩阵线性无关时,称做 满秩 。
线性变换:
最通俗的说法:输入一个向量,输出一个向量。
由基向量的性质,可以直到,给出原始向量,基向量线性变换后的位置,就可以求出原始向量线性变换后的位置。
可以把向量 \(\vec{i}\) ,\(\vec{j}\) 和 \(\vec{k}\) 按列组合成一个矩阵,称作 变换矩阵(从右到左,于初始列向量相乘,就得到线性变换后的初始向量,
复合线性变换:
当有多个变换矩阵时,它们具有结合律,即:
\((AB)C=A(BC)\)
如果直接算,很麻烦,可以通过变换矩阵的从右到左的运算顺序求解。
那么可以将其合并为一个变换矩阵。
行列式:
符号:\(\det\) 。
线性变换后,向量 \(\vec{v}\) 和 \(\vec{w}\) 所形成的平行四边形的面积放缩比例。
在二维平面中,基向量 \(\vec{v}\) 和 \(\vec{w}\) 所组成的正方形面积为 \(s_1\) ,线性变换后,\(\vec{i}\) 和 \(\vec{j}\) 所组成的平行四边形的面积为 \(s_2\) ,则 \(\det\) 为 \(\dfrac{s2}{s1}\) 。
二维平面的行列式 \(\det\begin{pmatrix}a&b\\c&d\end{pmatrix}=ad-bc\) 。
其中,\(\vec{v}=\begin{vmatrix}a\\c\end{vmatrix}\) ,\(\vec{w}=\begin{vmatrix}b\\d\end{vmatrix}\) 。
证明:
考虑将 \(\vec{v}\) 和 \(\vec{w}\) 形成的平行四边形补成矩形,长为 \(a+b\) ,宽为 \(c+d\) 。
\(\det\begin{pmatrix}a&b\\c&d\end{pmatrix}=(a+b)(c+d)-2\dfrac{ac}{2}-2\dfrac{db}{2}-2bc=ad-bc\) 。
对于任何矩阵的行列式,当 \(\det A=0\) 时,代表 \(A\) 是线性相关的。
点积:
\(\vec{v}\cdot \vec{w}=\sum\limits_{i}v_i\cdot w_i\)
由对偶性可以证明。
也可以将其视为从多维向量变成一维向量的线性变换,也即矩阵向量乘法。
目前只看到了点积部分,叉积以及后面的部分等看完了再补上来。