K-L變換( Karhunen-Loeve Transform)是建立在統計特性基礎上的一種變換,有的文獻也稱為霍特林(Hotelling)變換,因他在1933年最先給出將離散信號變換成一串不相關系數的方法。K-L變換的突出優點是去相關性好,是均方誤差(MSE,Mean Square Error)意義下的最佳變換,它在數據壓縮技術中占有重要地位。
K-L(Karhunen-Loeve)變換形式
K-L變換的性質
圖像信號的K-L變換
聚類變換認為:重要的分量就是能讓變換后類內距離小的分量。類內距離小,意味着抱團抱得緊。但是,抱團抱得緊,真的就一定容易分類么?
如圖1所示,根據聚類變換的原則,我們要留下方差小的分量,把方差大(波動大)的分量丟掉,所以兩個橢圓都要向y軸投影,這樣悲劇了,兩個重疊在一起,根本分不開了。而另一種情況卻可以這么做,把方差大的分量丟掉,於是向x軸投影,很順利就能分開了。因此,聚類變換並不是每次都能成功的。

圖1
摧枯拉朽的K-L變換
K-L變換是理論上“最好”的變換:是均方誤差(MSE,MeanSquare Error)意義下的最佳變換,它在數據壓縮技術中占有重要地位。
聚類變換還有一個問題是,必須一類一類地處理,把每類分別變換,讓它們各自抱團。
K-L變換要把所有的類別放在一起變換,希望通過這個一次性的變換,讓它們分的足夠開。
K-L變換認為:各類抱團緊不一定好區分。目標應該是怎么樣讓類間距離大,或者讓不同類好區分。因此對應於2種K-L變換。
其一:最優描述的K-L變換(沿類間距離大的方向降維)
首先來看個二維二類的例子,如圖2所示。

圖2

如果使用聚類變換,
方向是方差最小的方向,因此降維向
方向投影,得到2類之間的距離即為2條紅線之間的距離,但是這並不是相隔最遠的投影方向。將橢圓投影到
方向,得到2類之間的距離為2條綠線之間的距離。這個方向就是用自相關矩陣的統計平均得到的特征向量
設共有M個類別,各類出現的先驗概率為

以
表示來自第i類的向量。則第i類集群的自相關矩陣為:

混合分布的自相關矩陣R是:

然后求出R的特征向量和特征值:

將特征值降序排列(注意與聚類變換區別)
為了降到m維,取前m個特征向量,構成變換矩陣A

以上便完成了最優描述的K-L變換。
為什么K-L變換是均方誤差(MSE,MeanSquare Error)意義下的最佳變換?

其中
表示n維向量y的第j個分量,
表示第個特征分量。
引入的誤差

均方誤差為

從m+1開始的特征值都是最小的幾個,所以均方誤差得到最小。
以上方法稱為最優描述的K-L變換,是沿類間距離大的方向降維,從而均方誤差最佳。
本質上說,最優描述的K-L變換扔掉了最不顯著的特征,然而,顯著的特征其實並不一定對分類有幫助。我們的目標還是要找出對分類作用大的特征,而不應該管這些特征本身的強弱。這就誕生了第2種的K-L變換方法。
其二:最優區分的K-L變換(混合白化后抽取特征)
針對上述問題,最優區分的K-L變換先把混合分布白化,再來根據特征值的分離程度進行排序。
最優區分的K-L變換步驟
首先還是混合分布的自相關矩陣R

然后求出R的特征向量和特征值:

以上是主軸變換,實際上是坐標旋轉,之前已經介紹過。
令變換矩陣

則有

這個
作用是白化R矩陣,這一步是坐標尺度變換,相當於把橢圓整形成圓,如圖3所示。

圖3
以二類混合分布問題為例。

分別求出二類的特征向量和特征值,有

則二者的特征向量完全相同,唯一的據別在於其特征根,而且還負相關,即如果
取降序排列時,則
以升序排列。
為了獲得最優區分,要使得兩者的特征值足夠不同。因此,需要舍棄特征值接近0.5的那些特征,而保留使
大的那些特征,按這個原則選出了m個特征向量記作

則總的最優區分的K-L變換就是:






