參考原文: http://blog.csdn.net/zouxy09/article/details/7929531
http://www.cnblogs.com/dwdxdy/archive/2012/05/31/2528941.html
http://blog.csdn.net/dujian996099665/article/details/8886576
LBP(Local Binary Pattern,局部二值模式)是一種用來描述圖像局部紋理特征的算子;它具有旋轉不變性和灰度不變性等顯著的優點。它是首先由T. Ojala, M.Pietikäinen, 和 D. Harwood 在1994年提出,用於紋理特征提取。而且,提取的特征是圖像的局部的紋理特征;在行人檢測中HOG+LBP+HIKSVM取得了不錯的效果,在人臉識別中也是廣泛應用。
1、LBP特征的描述
原始的LBP算子定義為在3*3的窗口內,以窗口中心像素為閾值,將相鄰的8個像素的灰度值與其進行比較,若周圍像素值大於中心像素值,則該像素點的位置被標記為1,否則為0。這樣,3*3鄰域內的8個點經比較可產生8位二進制數(通常轉換為十進制數即LBP碼,共256種),即得到該窗口中心像素點的LBP值,並用這個值來反映該區域的紋理信息。如下圖所示:
LBP的改進版本:
原始的LBP提出后,研究人員不斷對其提出了各種改進和優化。
(1)圓形LBP算子:
基本的 LBP算子的最大缺陷在於它只覆蓋了一個固定半徑范圍內的小區域,這顯然不能滿足不同尺寸和頻率紋理的需要。為了適應不同尺度的紋理特征,並達到灰度和旋轉不變性的要求,Ojala等對 LBP 算子進行了改進,將 3×3鄰域擴展到任意鄰域,並用圓形鄰域代替了正方形鄰域,改進后的 LBP 算子允許在半徑為 R 的圓形鄰域內有任意多個像素點。從而得到了諸如半徑為R的圓形區域內含有P個采樣點的LBP算子;
(2)LBP旋轉不變模式
從 LBP 的定義可以看出,LBP 算子是灰度不變的,但卻不是旋轉不變的。圖像的旋轉就會得到不同的 LBP值。
Maenpaa等人又將 LBP算子進行了擴展,提出了具有旋轉不變性的 LBP 算子,即不斷旋轉圓形鄰域得到一系列初始定義的 LBP值,取其最小值作為該鄰域的 LBP 值。
圖 2.5 給出了求取旋轉不變的 LBP 的過程示意圖,圖中算子下方的數字表示該算子對應的 LBP值,圖中所示的 8 種 LBP模式,經過旋轉不變的處理,最終得到的具有旋轉不變性的 LBP值為 15。也就是說,圖中的 8種 LBP 模式對應的旋轉不變的 LBP模式都是 00001111。
一個更加正式的LBP操作可以被定義為
其中 是中心像素,亮度是
;而
則是相鄰像素的亮度。s是一個符號函數:
這種描述方法使得你可以很好的捕捉到圖像中的細節。實際上,研究者們可以用它在紋理分類上得到最先進的水平。正如剛才描述的方法被提出后,固定的近鄰區域對於尺度變化的編碼失效。所以,使用一個變量的擴展方法,在文獻[AHP04]中有描述。主意是使用可變半徑的圓對近鄰像素進行編碼,這樣可以捕捉到如下的近鄰:
對一個給定的點 ,他的近鄰點
可以由如下計算:
其中,R是圓的半徑,而P是樣本點的個數。
這個操作是對原始LBP算子的擴展,所以有時被稱為擴展LBP(又稱為圓形LBP)。如果一個在圓上的點不在圖像坐標上,我們使用他的內插點。計算機科學有一堆聰明的插值方法,而OpenCV使用雙線性插值。
(3)LBP等價模式(ULBP)
一個LBP算子可以產生不同的二進制模式,對於半徑為R的圓形區域內含有P個采樣點的LBP算子將會產生P2種模式。很顯然,隨着鄰域集內采樣點數的增加,二進制模式的種類是急劇增加的。例如:5×5鄰域內20個采樣點,有220=1,048,576種二進制模式。如此多的二值模式無論對於紋理的提取還是對於紋理的識別、分類及信息的存取都是不利的。同時,過多的模式種類對於紋理的表達是不利的。例如,將LBP算子用於紋理分類或人臉識別時,常采用LBP模式的統計直方圖來表達圖像的信息,而較多的模式種類將使得數據量過大,且直方圖過於稀疏。因此,需要對原始的LBP模式進行降維,使得數據量減少的情況下能最好的代表圖像的信息。
為了解決二進制模式過多的問題,提高統計性,Ojala提出了采用一種“等價模式”(Uniform Pattern)來對LBP算子的模式種類進行降維。Ojala等認為,在實際圖像中,絕大多數LBP模式最多只包含兩次從1到0或從0到1的跳變。因此,Ojala將“等價模式”定義為:當某個LBP所對應的循環二進制數從0到1或從1到0最多有兩次跳變時,該LBP所對應的二進制就稱為一個等價模式類。如00000000(0次跳變),00000111(只含一次從0到1的跳變),10001111(先由1跳到0,再由0跳到1,共兩次跳變)都是等價模式類。除等價模式類以外的模式都歸為另一類,稱為混合模式類,例如10010111(共四次跳變)(這是我的個人理解,不知道對不對)。
通過這樣的改進,二進制模式的種類大大減少,而不會丟失任何信息。模式數量由原來的2P種減少為 P ( P-1)+2種,其中P表示鄰域集內的采樣點數。對於3×3鄰域內8個采樣點來說,二進制模式由原始的256種減少為58種,這使得特征向量的維數更少,並且可以減少高頻噪聲帶來的影響。
2、LBP特征用於檢測的原理
顯而易見的是,上述提取的LBP算子在每個像素點都可以得到一個LBP“編碼”,那么,對一幅圖像(記錄的是每個像素點的灰度值)提取其原始的LBP算子之后,得到的原始LBP特征依然是“一幅圖片”(記錄的是每個像素點的LBP值)。
LBP的應用中,如紋理分類、人臉分析等,一般都不將LBP圖譜作為特征向量用於分類識別,而是采用LBP特征譜的統計直方圖作為特征向量用於分類識別。
因為,從上面的分析我們可以看出,這個“特征”跟位置信息是緊密相關的。直接對兩幅圖片提取這種“特征”,並進行判別分析的話,會因為“位置沒有對准”而產生很大的誤差。后來,研究人員發現,可以將一幅圖片划分為若干的子區域,對每個子區域內的每個像素點都提取LBP特征,然后,在每個子區域內建立LBP特征的統計直方圖。如此一來,每個子區域,就可以用一個統計直方圖來進行描述;整個圖片就由若干個統計直方圖組成;
例如:一幅100*100像素大小的圖片,划分為10*10=100個子區域(可以通過多種方式來划分區域),每個子區域的大小為10*10像素;在每個子區域內的每個像素點,提取其LBP特征,然后,建立統計直方圖;這樣,這幅圖片就有10*10個子區域,也就有了10*10個統計直方圖,利用這10*10個統計直方圖,就可以描述這幅圖片了。之后,我們利用各種相似性度量函數,就可以判斷兩幅圖像之間的相似性了;
3、對LBP特征向量進行提取的步驟
(1)首先將檢測窗口划分為16×16的小區域(cell);
(2)對於每個cell中的一個像素,將相鄰的8個像素的灰度值與其進行比較,若周圍像素值大於中心像素值,則該像素點的位置被標記為1,否則為0。這樣, 3*3鄰域內的8個點經比較可產生8位二進制數,即得到該窗口中心像素點的LBP值;
(3)然后計算每個cell的直方圖,即每個數字(假定是十進制數LBP值)出現的頻率;然后對該直方圖進行歸一化處理。
(4)最后將得到的每個cell的統計直方圖進行連接成為一個特征向量,也就是整幅圖的LBP紋理特征向量;
然后便可利用SVM或者其他機器學習算法進行分類了。
Reference:
黃非非,基於 LBP 的人臉識別研究,重慶大學碩士學位論文,2009.5
4.LBP的擴展DLBP
參考文獻 Background Subtraction Based on a Combination of Texture,Color and Intensity ICSP 2008
文獻在LBP的基礎上,提出了DLBP特征 Double Local Binary Pattern.
LBP的缺點:
1).It cannot differeniate between ascending and homogeneous.
無法區分鄰域像素點與中心像素點相等,或者鄰域像素點大於中心像素點兩種情況,因此,這兩種情況所得都是s(u) = 1.
2).It is sensitive to noise due its threshold schem.
DLBP主要是為了解決LBP的缺點而提出的,表式形式如下:
當LBP+ = 0 且 LBP- = 0,表示鄰域像素點與中心像素點相同;
當LBP+ = 1 且 LBP- = 0時,表示鄰域像素點大於中心像素點;
當LBP+ = 0 且 LBP- = 1時,表示鄰域像素點小於中心像素點;
從而可以區分鄰域像素點與中心像素點的三種情況.
引入參數n,來改善像素點值輕微變化對LBP的影響.文中取n = 4.
LBP和DLBP的比較示例圖如下:
(b),(c),(d)利用DLBP更能表述圖像的特征.(a)中DLBP和LBP的表描結果是一樣的.
5.原始LBP算法的opencv實現
// LBP.cpp : 定義控制台應用程序的入口點。 //
/*********************************************************************** * OpenCV 2.4.4 測試例程 * 杜健健 提供 ***********************************************************************/ #include "stdafx.h" #include <opencv2/opencv.hpp> #include <cv.h> #include <highgui.h> #include <cxcore.h>
using namespace std; using namespace cv; //原始的LBP算法 //使用模板參數
template <typename _Tp> static
void olbp_(InputArray _src, OutputArray _dst) { // get matrices
Mat src = _src.getMat(); // allocate memory for result
_dst.create(src.rows-2, src.cols-2, CV_8UC1); Mat dst = _dst.getMat(); // zero the result matrix
dst.setTo(0); cout<<"rows "<<src.rows<<" cols "<<src.cols<<endl; cout<<"channels "<<src.channels(); getchar(); // calculate patterns
for(int i=1;i<src.rows-1;i++) { cout<<endl; for(int j=1;j<src.cols-1;j++) { _Tp center = src.at<_Tp>(i,j); //cout<<"center"<<(int)center<<" ";
unsigned char code = 0; code |= (src.at<_Tp>(i-1,j-1) >= center) << 7; code |= (src.at<_Tp>(i-1,j ) >= center) << 6; code |= (src.at<_Tp>(i-1,j+1) >= center) << 5; code |= (src.at<_Tp>(i ,j+1) >= center) << 4; code |= (src.at<_Tp>(i+1,j+1) >= center) << 3; code |= (src.at<_Tp>(i+1,j ) >= center) << 2; code |= (src.at<_Tp>(i+1,j-1) >= center) << 1; code |= (src.at<_Tp>(i ,j-1) >= center) << 0; dst.at<unsigned char>(i-1,j-1) = code; //cout<<(int)code<<" "; //cout<<(int)code<<endl;
} } } //基於舊版本的opencv的LBP算法opencv1.0
void LBP (IplImage *src,IplImage *dst) { int tmp[8]={0}; CvScalar s; IplImage * temp = cvCreateImage(cvGetSize(src), IPL_DEPTH_8U,1); uchar *data=(uchar*)src->imageData; int step=src->widthStep; cout<<"step"<<step<<endl; for (int i=1;i<src->height-1;i++) for(int j=1;j<src->width-1;j++) { int sum=0; if(data[(i-1)*step+j-1]>data[i*step+j]) tmp[0]=1; else tmp[0]=0; if(data[i*step+(j-1)]>data[i*step+j]) tmp[1]=1; else tmp[1]=0; if(data[(i+1)*step+(j-1)]>data[i*step+j]) tmp[2]=1; else tmp[2]=0; if (data[(i+1)*step+j]>data[i*step+j]) tmp[3]=1; else tmp[3]=0; if (data[(i+1)*step+(j+1)]>data[i*step+j]) tmp[4]=1; else tmp[4]=0; if(data[i*step+(j+1)]>data[i*step+j]) tmp[5]=1; else tmp[5]=0; if(data[(i-1)*step+(j+1)]>data[i*step+j]) tmp[6]=1; else tmp[6]=0; if(data[(i-1)*step+j]>data[i*step+j]) tmp[7]=1; else tmp[7]=0; //計算LBP編碼
s.val[0]=(tmp[0]*1+tmp[1]*2+tmp[2]*4+tmp[3]*8+tmp[4]*16+tmp[5]*32+tmp[6]*64+tmp[7]*128); cvSet2D(dst,i,j,s);寫入LBP圖像 } } int _tmain(int argc, _TCHAR* argv[]) { //IplImage* face = cvLoadImage("D://input//yalefaces//01//s1.bmp",CV_LOAD_IMAGE_ANYDEPTH | CV_LOAD_IMAGE_ANYCOLOR);
IplImage* face = cvLoadImage("D://input//lena.jpg",CV_LOAD_IMAGE_ANYDEPTH | CV_LOAD_IMAGE_ANYCOLOR); //IplImage* lbp_face = cvCreateImage(cvGetSize(face), IPL_DEPTH_8U,1);
IplImage* Gray_face = cvCreateImage( cvSize( face->width,face->height ), face->depth, 1);//先分配圖像空間
cvCvtColor(face, Gray_face ,CV_BGR2GRAY);//把載入圖像轉換為灰度圖
IplImage* lbp_face = cvCreateImage(cvGetSize(Gray_face), IPL_DEPTH_8U,1);//先分配圖像空間
cvNamedWindow("Gray Image",1); cvShowImage("Gray Image",Gray_face); //Mat face2 = imread("D://input//buti.jpg",CV_LOAD_IMAGE_ANYDEPTH | CV_LOAD_IMAGE_ANYCOLOR);
Mat face2 = imread("D://input//yalefaces//01//s1.bmp",CV_LOAD_IMAGE_ANYDEPTH | CV_LOAD_IMAGE_ANYCOLOR); //Mat Gray_face2 = Mat::zeros(face2.size(),IPL_DEPTH_8U,1); //cvCvtColor(face2,Gray_face2,CV_BGR2RAY);
Mat lbp_face2 = Mat::zeros(face2.size(),face2.type()) ; //Mat::copyTo(lbp_face,face); //顯示原始的輸入圖像
cvNamedWindow("Src Image",CV_WINDOW_AUTOSIZE); cvShowImage("Src Image",face); //imshow("Src Image",face); //計算輸入圖像的LBP紋理特征
LBP(Gray_face,lbp_face); //olbp_<uchar>((Mat)face,(Mat)lbp_face);//有問題的調用
olbp_<uchar>(face2,lbp_face2); //顯示第一幅圖像的LBP紋理特征圖
cvNamedWindow("LBP Image",CV_WINDOW_AUTOSIZE); cvShowImage("LBP Image",lbp_face); //顯示第二幅圖 的LBP紋理特征圖-一張yaleface人臉庫中的人臉LBP特征圖
namedWindow("LBP Image2",1); imshow("LBP Image2",lbp_face2); waitKey(); //cvReleaseImage(&face);
cvDestroyWindow("Src Image"); return 0; }
結果:
原始圖像lena.jpg
變換成灰度圖后:
提取圖片的LBP特征:
提取人臉圖像的LBP特征;