KL變換


covariance 指兩個變量的相關性:cov(x, y) =E(x y) - E(x) E(y)

cov(x, y) < 0 負相關

cov(x, y) = 0 無關

cov(x, y) > 0 正相關

covariance matrix : Ki,j = cov(xi, xj)

 

以下例子中,x為輸入,y為輸出

 

K-L變換被廣泛應用在圖像壓縮領域中,是一個線性變換(W是正交矩陣)

K-L變換的目標:通過KLT去除原數據之間的相關性,即解相關(decorrelatation),設y的協方差矩陣為

假設x的每個列向量均值為0,由線性變換的性質,y的每個列向量均值也為0,則

因為W是正交矩陣,上式可寫為

\textbf{w}_{i}W的列向量,則

                                          \begin{align*} \textbf{[W][C]}_{y}&=[\textbf{w}_{1}, \textbf{w}_{2}, \cdots, \textbf{w}_{n}] \begin{bmatrix} \lambda _{1} & & & \\ &\lambda _{2} & & \\ & &\ddots & \\ & & & \lambda _{n} \end{bmatrix}\\ &=[\lambda _{1}\textbf{w}_{1}, \lambda _{2}\textbf{w}_{2}, \cdots, \lambda _{n}\textbf{w}_{n}]\\ &=\textbf{[C]}_{x}[\textbf{w}_{1}, \textbf{w}_{2}, \cdots, \textbf{w}_{n}] \end{align*}

所以\lambda_{i}, \textbf{w}_{i}分別是\textbf{[C]}_{x}的特征值和特征向量,即

這樣我們可以通過求\textbf{[C]}_{x}的特征向量得到變換矩陣W

 

參考:https://blog.csdn.net/qq_41917064/article/details/103820786

所以可以通過求eigenvalue和eigenvector:I 是identic matrix

det( [C]x - λ I) = 0;

([C]x - λ I)wi = 0

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM