深度學習與模式識別之項目整理
3158861394@qq.com
http://blog.csdn.net/luojun2007
作者:Luogz
本人一直從事圖像處理,模式識別專業方向。該專業具有非常廣的應用范圍。我對這個專業有非常大的興趣。本人承接各種與圖像處理相關的項目,如您須要請聯系我,謝謝!!
!
圖像處理方向大概有下面等應用場景:
1) 智能交通
2) 日常智能產品應用
3)醫學
4)工業
5)航空
以上領域。我基本都有涉及。熟悉圖像增強、圖像重建、人臉檢測、人臉性別分類、年齡預計、人臉識別、人流量統計、缺陷檢測、基於Adaboost的物體檢測、多類物體分類、智能交通、視頻背景建模、車牌識別、遺留物檢測、視頻質量診斷、美圖,OCR字符識別、汽車定位、行人檢測等等。
熟悉的算法:Adaboost訓練器、svm、神經網絡、深度學習算法(卷積神經網絡)、貝葉斯算法、ELM、Gabor特征提取、LBP特征、sift特征、小波等。
以下介紹一些曾經做過的項目。
文件夾
一、麻將牌實時檢測
二、生物及醫學應用分析
三、人數統計
四、基於深度學習的字符識別
五、人臉性別分類
一、麻將牌實時檢測
對攝像頭拍攝的圖片進行實時處理。輸出麻將的定位區域,因為我們的視頻是動的,比市場上的固定攝像頭的操作難非常多。所以檢測難度會加大,可是經過測試,設計的算法具有較高的檢測率和文檔性。算法是:機器學習 +先驗信息融合的處理機制。
對各種環境下的視頻進行測試,綜合檢測率在95%以上。
1、定位麻將
2、找出每張牌之間的邏輯位置關系
實例一
3、識別部分
看視頻檢測效果(請點擊鏈接):http://v.youku.com/v_show/id_XODEyMDc0NjA0.html
二、生物及醫學應用分析
1. 生物發酵分析
生物發酵過程中。須要人時常去觀察發酵過程到哪個階段?這浪費人力和物力,假設能用圖像處理算法處理發酵監控攝像頭返回的圖像,那么就能夠機器監控整個發酵過程。這個我曾經做過的一個小項目,主要是用來分析發酵圖的數據,並畫出發酵過程中的走勢狀態圖。
依據以上信息來推斷發酵過程是否達到了最佳時間。界面例如以下:
實例二
2. 醫學3D圖分析
分析三維圖像中感興趣區域。並加以分析。得出你想要的數據。
1、 對象:3D圖形(血管)三視圖(平面投影圖像)中熒光綠色標注曲線(初步識別的血管中軸)的空間中軸坐標。
2、 輸出結果:熒光綠色曲線(經初步識別的血管中軸)處理后的三維空間坐標。
3、 具體要求: 1.要求實現過程的具體步驟說明。
2.關鍵步奏須要圖像便於驗證。
3.空間坐標曲線如為非連續線狀,需取中線。
注意:
最后得到的曲線應和原始三視圖熒光綠曲線一樣是連續曲線。沒有尖銳毛刺(噪音),沒有識別錯誤及識別脫漏。
其實的目的是為了對血管中軸(血管骨架)的空間坐標進行識別。
熒光綠色曲線是初步識別的血管中軸。
實例三
處理過程中提取血管的圖像時。往往會得到斷斷續續的血管,例如以下:
x, y軸平面投影切割圖 3*3分區處理 斷線重連結果
以上處理過程用到數據擬合,曲線平滑等方向的一些知識。Matlab提供了強大的曲線擬合算法包含rubustfit、最小二乘、三次樣條插值等。可是我是在vs2010上實現該程序的。因此並沒有調用這這些函數。
程序最后的輸出是:血管在3維中的坐標位置信息。
三、人數統計
我做過人流統計和車流統計,可是把這個拿出來的原因是,“教室人數統計”主要大家都比較熟悉。“教室人數統計”…..你可能想到的能夠利用adaboost檢測人臉再數個數。這樣的方法是簡單,可是不有用,你能夠保證一定能夠檢測到人臉嗎?我是利用Adaboost框架訓練自己的人頭檢測XML。注意不是人臉-----可是這么做了。也有可能會檢測錯誤,因此我再利用如今的熱門算法,深度學習來對檢測到的待選目標進行分類。然后推斷出Adaboost檢測的待選目標是否是人頭,最后統計人頭總數。
大家都知道深度學習的一個巨大優點就是:不用自己去苦苦提取特征,網絡會依照它的設計原理自己主動提取特征,比方CNN(卷積神經網絡),通過局部感受野、共享權值和亞取樣來得到特征,而且該特征對位移、縮放、扭曲具有魯棒性。
詳細參考:http://blog.csdn.net/celerychen2009/article/details/8973218
視圖3.1
深度學習的效果和樣本的豐富程度以及網絡的深度有關系。可是並非網絡的層數越多越好,深度學習的擁護者都是,不充分的深度反而影響效果。
Adaboost +深度學習框架的人數統計的效果圖例如以下:
實例四
須要看視頻效果的點擊:http://v.youku.com/v_show/id_XODExODk3ODAw.html
四、基於深度學習的字符識別
OCR識別技術,如今已經比較成熟了。可是還是值得關注。有一位大牛提出了一種手寫字符識別框架,叫“LeNet-5系統”效果和paper等見這。是利用深度學習的CNN來實現,原始LeNet-5結構不包括輸入層就已經是7層網絡結構。眼下基本都用簡化的“LeNet-5系統”,該系統把下採樣層和卷積層結合起來。避免了下採樣層過多的參數學習過程,相同保留了對圖像位移。扭曲的魯棒性。
其網絡結構圖例如以下所看到的:
視圖4.1
當年美國大多數銀行就是用它來識別支票上面的手寫數字的。可以達到這樣的商用的地步。它的准確性可想而知。
畢竟眼下學術界和工業界的結合是最受爭議的。他的效果圖例如以下:
視圖4.2
我依據這樣的設計方案,實現了該“LeNet-5系統”。可是我的使用場景是撲克牌識別,並且應用在手抓牌上,不是眼下常使用的方法——把牌擺在牌桌上。
對照效果例如以下:
視圖4.3 擺拍方式
實例五 手抓牌
五、人臉性別分類
人臉性別分類,我主要設計了兩種方案:一、Gabor(多尺度。多方向特征提取)+ PCA + LDA + SVM。二、dense-Sift + LBP + PCA + LDA + SVM。
這兩種設計方案各有千秋,可是共同點就是效果都還行。
對1W張室外人臉進行測試,前者能夠達到87%~92%的識別率。后者能夠達到93%~94%的識別率。至於我說兩種各有特點的原因是。Gabor特征抗光照變化的能力比sift特征強,通常情況下Gabor特征方案比sift特征方案識別率低一些,可是對光線變化比較大的環境,Gabor方案還能夠維持叫好的效果,可是sift特征方案的識別率速度降到60%~70%。因此看應用場景來採用哪種方案?
(a) (b)
實例六 性別分類
本人長期外接項目和程序設計,假設你有須要,請聯系我:QQ:3158861394.
誠信為您服務!