奇異值分解
任何實矩陣\(\textbf{A} \in \mathbb{R}^{m \times n}\)都可以分解為
其中, \(\textbf{U} \in \mathbb{R}^{m \times m}\)和\(\textbf{V} \in \mathbb{R}^{n \times n}\)分別為滿足\(\textbf{U}^T\textbf{U} = \textbf{I}\)以及\(\textbf{V}^T\textbf{V} = \textbf{I}\)的m階與n階酉矩陣. 其中\((\Sigma)_{ii} = \sigma_i\)且其它位置的元素均為0, \(\sigma_i\)為非負實數且滿足\(\sigma_1 \geqslant \sigma_2 \geqslant ... \geqslant 0\).
式(1)為奇異值分解(SVD), 其中\(\textbf{U}\)的列向量\(\textbf{u}_i \in \mathbb{R}^m\)稱為\(\textbf{A}\)的左奇異向量, \(\textbf{V}\)的列向量\(\textbf{v}_i \in \mathbb{R}^n\)稱為\(\textbf{A}\)的右奇異向量, \(\sigma^i\)稱為奇異值. 矩陣的秩就等於非零奇異值的個數。
低秩矩陣近似
給定一個秩為\(r\)的矩陣\(\textbf{A}\), 欲求其最優\(k\)秩近似矩陣\(\widetilde{\textbf{A}}, k \leqslant{r}\), 該問題可形式化為
對矩陣\(\textbf{A}\)進行奇異值分解后,將矩陣\(\Sigma\)中的 \(r\ - \ k\) 個最小的奇異值置零獲得矩陣\(\Sigma_k\), 僅保留最大的\(k\)個奇異值, 則
reference:
《機器學習》 by 周志華