CTPN CRNN-Pytorch 銀行卡號識別


通過利用keras以及一些自定義函數進行數據增強, CTPN進行文字定位,CRNN進行文字識別以及Flask Web實現銀行卡號碼識別
Github地址

由於我並不是機器學習方向,完成此項目只是學校課程需要
所以文章可能只是如何開始並完成這個項目,至於深層次的原理,推薦兩篇中文博文

【OCR技術系列之五】自然場景文本檢測技術綜述(CTPN, SegLink, EAST)
【OCR技術系列之七】端到端不定長文字識別CRNN算法詳解

構建基礎運行環境

硬件設備以及部分驅動和依賴如下:
Ubuntu18.04 + CUDA 8.0.61 + GeForce GTX 960M + NVIDIA Driver 430.14 + Python3.6 + Tensorflow-gpu
(CUDA10.0 可參考文章末尾colab google配置)

NVIDIA 430.14驅動下載
CUDA 8.0下載

安裝完成后,可以通過下面命令在你的設備中檢查

VswX3F.png

克隆源代碼,並生成Python3虛擬環境

git clone https://github.com/bay1/card-crnn-ctpn.git

python3 -m virtualenv venv

source venv/bin/activate # 激活虛擬環境

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple some-package # 安裝項目依賴,指定清華源

配置warpctc-pytorch

項目中用到了warpctc-pytorch,需要我們手動安裝
注意這里的命令需要在Python虛擬環境中執行

git clone https://github.com/SeanNaren/warp-ctc.git
cd warp-ctc
mkdir build; cd build
cmake ..
make

你可能會遇到如下錯誤,這是因為你的gcc版本過高,需要低於5.0版本

/usr/local/cuda-8.0/include/host_config.h:119:2: error: #error -- unsupported GNU version! gcc versions later than 5 are not supported!
 #error -- unsupported GNU version! gcc versions later than 5 are not supported!
  ^~~~~

如果你系統中有多個gcc版本,你可以執行下面的命令指定"gcc"命令鏈接的具體指令
比如我指定我系統中存在的另一個gcc版本: gcc-4.9

sudo rm /usr/bin/gcc
sudo ln -s /usr/bin/gcc-4.9  /usr/bin/gcc

VsDgtx.png

你也可能會遇到如下錯誤

/usr/bin/ld: CMakeFiles/test_gpu.dir/tests/test_gpu_generated_test_gpu.cu.o: relocation R_X86_64_32S against `.bss' can not be used when making a PIE object; recompile with -fPIC
/usr/bin/ld: 最后的鏈結失敗: 輸出不可表示的節
collect2: error: ld returned 1 exit status
CMakeFiles/test_gpu.dir/build.make:98: recipe for target 'test_gpu' failed
make[2]: *** [test_gpu] Error 1
CMakeFiles/Makefile2:146: recipe for target 'CMakeFiles/test_gpu.dir/all' failed
make[1]: *** [CMakeFiles/test_gpu.dir/all] Error 2
Makefile:129: recipe for target 'all' failed
make: *** [all] Error 2

根據報錯內容,我們可以直接修改目錄下的CMakeCache.txt

CMAKE_CXX_FLAGS:STRING=-fPIC # 39 行

VsrcrQ.png

然后我們根據warp-ctc說明,執行下面命令

cd ../pytorch_binding
python setup.py install

此時你可能會遇到如下錯誤

src/binding.cpp:6:10: fatal error: torch/extension.h: 沒有那個文件或目錄
 #include <torch/extension.h>
          ^~~~~~~~~~~~~~~~~~~
compilation terminated.
error: command 'x86_64-linux-gnu-gcc' failed with exit status 1

根據前人的經驗,https://github.com/SeanNaren/warp-ctc/issues/101
我們直接切換以前的版本即可

git checkout ac045b6

CTPN

文本位置定位,我直接借用的此項目以及其訓練的模型text-detection-ctpn
其實作者訓練的模型效果不算很好,不過我手里並沒有模型數據,自己訓練還是需要下載這位作者的訓練數據
所以干脆直接使用作者訓練好的模型數據即可,可以從下面兩種方式下載作者的ckpt file

googl drive
baidu雲

將此文件夾放到ctpn/,然后執行如下命令

cd ctpn/utils/bbox
chmod +x make.sh
./make.sh

PS: 如果你想要自己訓練CTPN模型數據,你可以執行ctpn文件夾下的train.py文件

其中text-detection-ctpn只是針對文本進行位置的定位
而我們針對銀行卡號進行具體定位,所以還是需要進行一些自定義的處理
我的思路是對選取出來的所有Box進行長寬的計算,然后根據長寬的比例來進行截取卡號區域
當然這種效果的前提是,我們能夠將卡號部分檢測出來,不過這樣實現的效果還是相當不錯的

def get_wh(box_coordinate):
    """
    計算box坐標寬高
    box格式: [xmin, ymin, xmax, ymin, xmax, ymax, xmin, ymax, score]
    """
    xmin = box_coordinate[0]
    xmax = box_coordinate[2]
    ymin = box_coordinate[1]
    ymax = box_coordinate[5]
    width = xmax - xmin
    height = ymax - ymin
    return width, height

CRNN

此時需要回到項目根目錄,首先對我得到的圖片數據進行簡單的處理
即將原始圖片數據,即data/images的圖片,轉化為生成lmdb需要的形式

python crnn/handle_images.py # 后續優化后,在此命令前需要執行數據增強

圖片路徑以及正確標簽文本:

  • crnn/to_lmdb/train.txt
  • crnn/to_lmdb/test.txt

處理后的圖片新路徑:

  • crnn/to_lmdb/train_images
  • crnn/to_lmdb/test_images

traintxt.png

然后我們就需要將我們手中的數據轉換成train所需要的lmdb文件
執行下面命令

python crnn/to_lmdb/to_lmdb.py -i crnn/to_lmdb/train_images -l crnn/to_lmdb/train.txt -s crnn/to_lmdb/train_lmdb/
python crnn/to_lmdb/to_lmdb.py -i crnn/to_lmdb/test_images -l crnn/to_lmdb/test.txt -s crnn/to_lmdb/test_lmdb/

生成的lmdb文件目錄:

  • crnn/to_lmdb/train_lmdb
  • crnn/to_lmdb/test_lmdb

這時候我們就可以具體訓練我們手中的數據

python crnn/train.py

模型保存目錄: crnn/expr
本地訓練模型分享了一份在百度雲盤: https://pan.baidu.com/s/1TXuewaVgGzXjT0EPCj47Bg 提取碼: 7we3

自定義參數

這個項目有各種自定義的數據目錄,以及訓練模型的參數
如果你想修改這些參數或者數據路徑,你可以到下面兩個文件中

  • ctpn/params.py
  • crnn/params.py

其中crnn訓練模型的參數詳解

--random_sample      是否使用隨機采樣器對數據集進行采樣, action='store_true'
--keep_ratio         設置圖片保持橫縱比縮放, action='store_true'
--adam               使用adma優化器, action='store_true'
--adadelta           使用adadelta優化器, action='store_true'
--saveInterval       設置多少次迭代保存一次模型
--valInterval        設置多少次迭代驗證一次
--n_test_disp        每次驗證顯示的個數
--displayInterval    設置多少次迭代顯示一次
--experiment         模型保存目錄
--alphabet           設置檢測分類
--crnn               選擇預訓練模型
--beta1            
--lr                 學習率
--niter              訓練回合數
--nh                 LSTM隱藏層數
--imgW               圖片寬度
--imgH               圖片高度, default=32
--batchSize          設置batchSize大小, default=64
--workers            工作核數, default=2
--trainroot          訓練集路徑
--valroot            驗證集路徑
--cuda               使用GPU, action='store_true'

可視化

訓練CRNN完成之后,crnn測試加載模型路徑默認是: crnn/trained_models/crnn_Rec_done.pth
即我們需要把我們訓練好的模型重命名放到這個目錄
然后我們就可以在項目根目錄執行如下命令

python run.py

瀏覽器打開鏈接:http://127.0.0.1:5000

index.png

uploading.png

效果展示

這是本地迭代了300次的效果,有待繼續改進

測試集圖片, 識別其中的一張銀行卡號

result.png

后續

數據增強

百度百科-數據增強
深度學習與計算機視覺(PB-02)-數據增強

數據增強模塊,將數據集中的每一張圖片使用數據增強方式拓展為n張圖片(n,設置crnn/params.py中的total_num)
這樣做的好處還可以為之后的圖像識別訓練提供充足的數據樣本

而我們要做的目的是識別銀行卡卡號,對於現有數據和實際識別中卡號的樣式
個人認為,我們需要做的數據增強方式不應該包括角度旋轉,水平翻轉,大幅度平移
同時銀行卡較不容易識別的是帶有復雜背景圖的卡面,所以雜色,噪點的增加是必要的
所以在keras的基礎上我們自定義一些其他函數

完成上述設置之后,在handle_images.py之前執行下面的命令

python crnn/augmentation.py

生成的數據文件夾如下,理論上會生成86720項(猜測是文件名重復導致)

效果

data文件夾中的測試圖片,幾乎能夠識別所有的銀行卡號,預估測試正確率達85%+
訓練過程中170多次迭代的acc,最高升至0.77

colab google免費訓練

后來發現了,google提供的一種免費線上訓練網站,GPU環境是K80配置,速度比本地快多了
而且可以省去很多配置環境的麻煩,這種線上環境的cuda版本是10.0,還是需要進行稍微調整
首先我們在colab中添加如下的單元格

!git clone https://github.com/bay1/card-crnn-ctpn.git
  
%cd /content/card-crnn-ctpn
!pip install -r requirements.txt
!pip install --upgrade tensorflow-gpu
!pip install https://download.pytorch.org/whl/cu100/torch-1.0.1.post2-cp36-cp36m-linux_x86_64.whl

!cp /content/train.py /content/card-crnn-ctpn/crnn

!python crnn/augmentation.py
!python crnn/handle_images.py
!python crnn/to_lmdb/to_lmdb.py -i crnn/to_lmdb/train_images -l crnn/to_lmdb/train.txt -s crnn/to_lmdb/train_lmdb/
!python crnn/to_lmdb/to_lmdb.py -i crnn/to_lmdb/test_images -l crnn/to_lmdb/test.txt -s crnn/to_lmdb/test_lmdb/

!python /content/card-crnn-ctpn/crnn/train.py

你可能注意到了這里升級了tensorflow-gpu和tourch版本以適配線上環境的硬件
pytorch.org在這里你可以找到相應的tourch對應的cuda版本安裝方法

然后手動下載 card-crnn-ctpn/crnn/train.py 文件
由於tourch1.0版本直接支持CTCLoss,所以我們就不需要安裝warpctc_pytorch,修改train.py文件如下
即注釋warpctc引用的CTCLoss,直接改為torch中的CTCLoss

10 # from warpctc_pytorch import CTCLoss
158 # criterion = CTCLoss()
159 criterion = torch.nn.CTCLoss()

此時如果你想修改params.py文件,也可以像train.py一樣修改
修改完成后上傳到目錄,在單元格代碼中添加相應的替換命令即可
最后執行代碼執行程序,享受速度

最終在colab訓練90次的模型,測試網上找來的10+張圖片
准確率大致可以達到95%+
(對於iter和准確率,每次數據增強的圖片是隨機的,生成的訓練效果可能不同.....准確率升到95%+,有種瞎貓碰死耗子的感覺)

PS:
參考crnn.pytorch
why my accuracy is always 0


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM