深度學習與模式識別之項目整理


深度學習與模式識別之項目整理

3158861394@qq.com

http://blog.csdn.net/luojun2007

作者:Luogz


聲明:


       本人一直從事圖像處理,模式識別專業方向。該專業具有非常廣的應用范圍。我對這個專業有非常大的興趣。本人承接各種與圖像處理相關的項目,如您須要請聯系我,謝謝!!


圖像處理方向大概有下面等應用場景:

1) 智能交通

2) 日常智能產品應用

3)醫學

4)工業

5)航空

 

        以上領域。我基本都有涉及。熟悉圖像增強、圖像重建、人臉檢測、人臉性別分類、年齡預計、人臉識別、人流量統計、缺陷檢測、基於Adaboost的物體檢測、多類物體分類、智能交通、視頻背景建模、車牌識別、遺留物檢測、視頻質量診斷、美圖,OCR字符識別、汽車定位、行人檢測等等。

熟悉的算法:Adaboost訓練器、svm、神經網絡、深度學習算法(卷積神經網絡)、貝葉斯算法、ELM、Gabor特征提取、LBP特征、sift特征、小波等。


以下介紹一些曾經做過的項目。

文件夾

、麻將牌實時檢測

二、生物及醫學應用分析

三、人數統計

四、基於深度學習的字符識別

五、人臉性別分類

 

一、麻將牌實時檢測


        對攝像頭拍攝的圖片進行實時處理。輸出麻將的定位區域,因為我們的視頻是動的,比市場上的固定攝像頭的操作難非常多。所以檢測難度會加大,可是經過測試,設計的算法具有較高的檢測率和文檔性。算法是:機器學習 +先驗信息融合的處理機制。

對各種環境下的視頻進行測試,綜合檢測率在95%以上。

1、定位麻將



2、找出每張牌之間的邏輯位置關系


                     


     實例一


3、識別部分

看視頻檢測效果(請點擊鏈接):http://v.youku.com/v_show/id_XODEyMDc0NjA0.html


二、生物及醫學應用分析


1.    生物發酵分析


        生物發酵過程中。須要人時常去觀察發酵過程到哪個階段?這浪費人力和物力,假設能用圖像處理算法處理發酵監控攝像頭返回的圖像,那么就能夠機器監控整個發酵過程。這個我曾經做過的一個小項目,主要是用來分析發酵圖的數據,並畫出發酵過程中的走勢狀態圖。

依據以上信息來推斷發酵過程是否達到了最佳時間。界面例如以下:




實例二


2.    醫學3D圖分析


分析三維圖像中感興趣區域。並加以分析。得出你想要的數據。

1、   對象:3D圖形(血管)三視圖(平面投影圖像)中熒光綠色標注曲線(初步識別的血管中軸)的空間中軸坐標。

2、   輸出結果:熒光綠色曲線(經初步識別的血管中軸)處理后的三維空間坐標。

3、   具體要求: 1.要求實現過程的具體步驟說明。

                              2.關鍵步奏須要圖像便於驗證。

                              3.空間坐標曲線如為非連續線狀,需取中線。

注意:

最后得到的曲線應和原始三視圖熒光綠曲線一樣是連續曲線。沒有尖銳毛刺(噪音),沒有識別錯誤及識別脫漏。

其實的目的是為了對血管中軸(血管骨架)的空間坐標進行識別。

熒光綠色曲線是初步識別的血管中軸。



 


     實例三


         處理過程中提取血管的圖像時。往往會得到斷斷續續的血管,例如以下:


                                                                      


                                     x, y軸平面投影切割圖                                                3*3分區處理                                                 斷線重連結果


        以上處理過程用到數據擬合,曲線平滑等方向的一些知識。Matlab提供了強大的曲線擬合算法包含rubustfit、最小二乘、三次樣條插值等。可是我是在vs2010上實現該程序的。因此並沒有調用這這些函數。

       程序最后的輸出是:血管在3維中的坐標位置信息。


三、人數統計


        我做過人流統計和車流統計,可是把這個拿出來的原因是,“教室人數統計”主要大家都比較熟悉。“教室人數統計”…..你可能想到的能夠利用adaboost檢測人臉再數個數。這樣的方法是簡單,可是不有用,你能夠保證一定能夠檢測到人臉嗎?我是利用Adaboost框架訓練自己的人頭檢測XML。注意不是人臉-----可是這么做了。也有可能會檢測錯誤,因此我再利用如今的熱門算法,深度學習來對檢測到的待選目標進行分類。然后推斷出Adaboost檢測的待選目標是否是人頭,最后統計人頭總數。

大家都知道深度學習的一個巨大優點就是:不用自己去苦苦提取特征,網絡會依照它的設計原理自己主動提取特征,比方CNN(卷積神經網絡),通過局部感受野、共享權值和亞取樣來得到特征,而且該特征對位移、縮放、扭曲具有魯棒性

詳細參考:http://blog.csdn.net/celerychen2009/article/details/8973218




視圖3.1


        深度學習的效果和樣本的豐富程度以及網絡的深度有關系。可是並非網絡的層數越多越好,深度學習的擁護者都是,不充分的深度反而影響效果。

Adaboost +深度學習框架的人數統計的效果圖例如以下:




                                                                                                                   實例四


           須要看視頻效果的點擊:http://v.youku.com/v_show/id_XODExODk3ODAw.html


四、基於深度學習的字符識別


       OCR識別技術,如今已經比較成熟了。可是還是值得關注。有一位大牛提出了一種手寫字符識別框架,叫“LeNet-5系統”效果和paper等見這是利用深度學習的CNN來實現原始LeNet-5結構不包括輸入層就已經是7層網絡結構。眼下基本都用簡化的“LeNet-5系統”,該系把下採樣層和卷積層結合起來。避免了下採樣層過多的參數學習過程,相同保留了對圖像位移。扭曲的魯棒性。

其網絡結構圖例如以下所看到的:


視圖4.1


       當年美國大多數銀行就是用它來識別支票上面的手寫數字的。可以達到這樣的商用的地步。它的准確性可想而知。

畢竟眼下學術界和工業界的結合是最受爭議的。他的效果圖例如以下:




視圖4.2


       我依據這樣的設計方案,實現了該LeNet-5系統”。可是我的使用場景是撲克牌識別,並且應用在手抓牌上,不是眼下常使用的方法——把牌擺在牌桌上。

對照效果例如以下:




 視圖4.3   擺拍方式




        實例五   手抓牌

       

五、人臉性別分類


         人臉性別分類,我主要設計了兩種方案:一、Gabor(多尺度。多方向特征提取)+ PCA + LDA + SVM。二、dense-Sift + LBP + PCA + LDA + SVM

這兩種設計方案各有千秋,可是共同點就是效果都還行。

1W張室外人臉進行測試,前者能夠達到87%~92%的識別率。后者能夠達到93%~94%的識別率。至於我說兩種各有特點的原因是。Gabor特征抗光照變化的能力比sift特征強,通常情況下Gabor特征方案比sift特征方案識別率低一些,可是對光線變化比較大的環境,Gabor方案還能夠維持叫好的效果,可是sift特征方案的識別率速度降到60%~70%。因此看應用場景來採用哪種方案?     


          

a                                                                                       b

實例六  性別分類

  

本人長期外接項目和程序設計,假設你有須要,請聯系我:QQ3158861394.

誠信為您服務!



免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM