原文地址:淺談對主成分分析(PCA)算法的理解
以前對PCA算法有過一段時間的研究,但沒整理成文章,最近項目又打算用到PCA算法,故趁熱打鐵整理下PCA算法的知識。本文觀點旨在拋磚引玉,不是權威,更不能盡信,只是本人的一點體會。
主成分分析(PCA)是多元統計分析中用來分析數據的一種方法,它是用一種較少數量的特征對樣本進行描述以達到降低特征空間維數的方法,它的本質實際上是K-L變換。PCA方法最著名的應用應該是在人臉識別中特征提取及數據維,我們知道輸入200*200大小的人臉圖像,單單提取它的灰度值作為原始特征,則這個原始特征將達到40000維,這給后面分類器的處理將帶來極大的難度。著名的人臉識別Eigenface算法就是采用PCA算法,用一個低維子空間描述人臉圖像,同時用保存了識別所需要的信息。下面先介紹下PCA算法的本質K-L變換。
1、K-L變換(卡洛南-洛伊(Karhunen-Loeve)變換):最優正交變換
- 一種常用的特征提取方法;
- 最小均方誤差意義下的最優正交變換;
- 在消除模式特征之間的相關性、突出差異性方面有最優的效果。












向量y就是變換(降維)后的系數向量,在人臉識別Eigenface算法中就是用系數向量y代替原始特征向量x進行識別。






















Mat Mat::reshape(int cn, int rows=0) const
該函數是改變Mat的尺寸,即保持尺寸大小=行數*列數*通道數 不變。其中第一個參數為變換后Mat的通道數,如果為0,代表變換前后通道數不變。第二個參數為變換后Mat的行數,如果為0也是代表變換前后通道數不變。但是該函數本身不復制數據。
void Mat::convertTo(OutputArray m, int rtype, double alpha=1, double beta=0 ) const
該函數其實是對原Mat的每一個值做一個線性變換。參數1為目的矩陣,參數2為目d矩陣的類型,參數3和4變換的系數,看完下面的公式就明白了:
PCA::PCA(InputArray data, InputArray mean, int flags, int maxComponents=0)
該構造函數的第一個參數為要進行PCA變換的輸入Mat;參數2為該Mat的均值向量;參數3為輸入矩陣數據的存儲方式,如果其值為CV_PCA_DATA_AS_ROW則說明輸入Mat的每一行代表一個樣本,同理當其值為CV_PCA_DATA_AS_COL時,代表輸入矩陣的每一列為一個樣本;最后一個參數為該PCA計算時保留的最大主成分的個數。如果是缺省值,則表示所有的成分都保留。
Mat PCA::project(InputArray vec) const
該函數的作用是將輸入數據vec(該數據是用來提取PCA特征的原始數據)投影到PCA主成分空間中去,返回每一個樣本主成分特征組成的矩陣。因為經過PCA處理后,原始數據的維數降低了,因此原始數據集中的每一個樣本的維數都變了,由改變后的樣本集就組成了本函數的返回值。下面由一個圖說明:
Mat PCA::backProject(InputArray vec) const
一般調用backProject()函數前需調用project()函數,因為backProject()函數的參數vec就是經過PCA投影降維過后的矩陣dst。 因此backProject()函數的作用就是用vec來重構原始數據集(關於該函數的本質就是上面總結2的公式)。由一個圖說明如下:
另外PCA類中還有幾個成員變量,mean,eigenvectors, eigenvalues等分別對應着原始數據的均值,協方差矩陣的特征值和特征向量。
實驗結果:
實驗是用4個人人臉圖像,其中每個人分別有5張,共計20張人臉圖片。用這些圖片組成原始數據集來提取他們的PCA主特征臉。該20張圖片如下所示:
軟件運行結果:
實驗中保留4個特征向量作為人臉圖像的正交基底,運行結果如下:
其中第一行的3張人臉分別為20張原圖中的3張,這里取的是3個不同人的。
第二行中顯示的3張人臉重構的人臉圖像,可以看出由於只取了4個特征向量作為正交基底,因此重構后的人臉圖像一些細節會丟失。如果增加保留的特征向量個數,則能較好的重構出人臉圖像。
第3行的人臉圖為取的原始數據協方差矩陣特征向量的最前面3個,因此這3個人臉為最具代表人臉特征的3個PCA人臉特征。
實驗主要部分代碼: