基於KL變換的特征人臉識別方法基本原理


  KL變換是圖象壓縮中的一種最優正交變換。人們將它用於統計特征提取,從而形成了子空間法模式識別的基礎。若將KL變換用於人臉識別,則需假設人臉處於低維線性空間,且不同人臉具有可分性。由於高維圖象空間KL變換后可得到一組新的正交基,因此可通過保留部分正交基,以生成低維人臉空間。而低維空間的基則是通過分析人臉訓練樣本集的統計特性來獲得。KL變換的生成矩陣可以是訓練樣本集的總體散布矩陣,也可以是訓練樣本集的類間散布矩陣,即可采用同一人的數張圖象的平均來進行訓練,這樣可在一定程度上消除光線等的干擾,且計算量也得到減少,而識別率不會下降。也就是說,根據總體散布矩陣或類間散布矩陣可求出一組正交的特征向量u1,u2,...,un ,其對應的全部特征值分別為λ1,λ2...λn,這樣,在新的正交空間中,人臉樣本就可以表示為

   若通過選用m (m < n) 個特征向量作為正交基,則在該正交空間的子空間中,就可得到以下近似表達式

  如將子空間的正交基按照圖象陣列排列,則可以看出這些正交基呈現人臉的形狀,因此這些正交基也被稱作特征臉,這種人臉識別方法也叫特征臉方法。關於正交基的選擇有不同的考慮,即與較大特征值對應的正交基(也稱主分量)可用來表達人臉的大體形狀,而具體細節還需要用與小特征值對應的特征向量(也稱次分量)來加以描述,因此也可理解為低頻成分用主分量表示,而高頻成分用次分量表示。其中,采用主分量作正交基的方法稱為主分量方法(PCA)。同時,也有人采用m個次分量作為正交基,原因是所有人臉的大體形狀和結構相似,真正用來區別不同人臉的信息是那些用次分量表達的高頻成分。由訓練得到特征臉后,將待識別人臉投影到新的維人臉空間,即用一系列特征臉的線性加權和來表示它,這樣即得到一投影系數向量來代表待識別人臉,這時候,人臉識別問題已轉化為m低維空間的坐標系數矢量分類問題,而分類最簡單的做法是最小距離分類。

  KL變換在90 年代初受到了很大的重視,實際用於人臉識別也取得了很好的效果,其識別率從70100%不等,這取決於人臉庫圖象的質量。從壓縮能量的角度來看,KL變換是最優的,它不僅使得從n維空間降到維空間前后的均方誤差最小,而且變換后的低維空間有很好的人臉表達能力,然而這不是說已經具有很好的人臉辨別能力。選擇訓練樣本的散布矩陣作為KL 變換的生成矩陣,是由於其最大特征向量抓住了該樣本集合的主要分布,但這是圖象統計,而不是人臉統計方法。它雖然考慮了圖象之間所有的差異,但由於它不管這樣的差異是由照明、發型變更或背景導致,還是屬於人臉的內在差異,因此特征臉識別的方法用於人臉識別存在理論的缺陷。研究表明,特征臉的方法隨着光線、角度及人臉的尺寸等因素的引入,識別率急劇下降。雖然可通過采用同一人的訓練樣本的平均來計算類間散布矩陣,但也只能在一定程度上糾正這個缺點。研究結果表明,主分量的方法使得變換后表達能力最佳,次分量的方法則考慮了高頻的人臉區分能力。由於對KL變換而言,外在因素帶來的圖象差異和人臉本身帶來的差異是不加任何區分的,因此,不管如何選擇正交基,也不能根本解決問題。其改善的一個思路是針對干擾所在,對輸入圖象作規范化處理,其中包括將輸入圖的均值方差歸一化、人臉尺寸歸一化等;另一種改進是考慮到局部人臉圖象受外在干擾相對較小,在進行人臉識別時,除計算特征臉之外,還可利用KL變換計算出特征眼睛、特征嘴巴等。然后將局部特征向量加權進行匹配,就能夠得到一些好的效果。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM