主要開發環境:
-
- python3.5
-
python SDK版本
-
- PIL
-
圖片處理庫
-
- libsvm
-
開源的svm機器學習庫
關於環境的安裝,不是本文的重點,故略去。
6 基本流程
一般情況下,對於字符型驗證碼的識別流程如下:
- 准備原始圖片素材
- 圖片預處理
- 圖片字符切割
- 圖片尺寸歸一化
- 圖片字符標記
- 字符圖片特征提取
- 生成特征和標記對應的訓練數據集
- 訓練特征標記數據生成識別模型
- 使用識別模型預測新的未知圖片集
- 達到根據“圖片”就能返回識別正確的字符集的目標
7 素材准備
7.1 素材選擇
由於本文是以初級的學習研究目的為主,要求 “有代表性,但又不會太難” ,所以就直接在網上找個比較有代表性的簡單的字符型驗證碼(感覺像在找漏洞一樣)。
最后在一個比較舊的網站(估計是幾十年前的網站框架)找到了這個驗證碼圖片。
原始圖:

放大清晰圖:

此圖片能滿足要求,仔細觀察其具有如下特點。
有利識別的特點 :
- 由純阿拉伯數字組成
- 字數為4位
- 字符排列有規律
- 字體是用的統一字體
以上就是本文所說的此驗證碼簡單的重要原因,后續代碼實現中會用到
不利識別的特點 :
- 圖片背景有干擾噪點
這雖然是不利特點,但是這個干擾門檻太低,只需要簡單的方法就可以除去
7.2 素材獲取
由於在做訓練的時候,需要大量的素材,所以不可能用手工的方式一張張在瀏覽器中保存,故建議寫個自動化下載的程序。
主要步驟如下:
- 通過瀏覽器的抓包功能獲取隨機圖片驗證碼生成接口
- 批量請求接口以獲取圖片
- 將圖片保存到本地磁盤目錄中
這些都是一些IT基本技能,本文就不再詳細展開了。
關於網絡請求和文件保存的代碼,如下:
def downloads_pic(**kwargs):
pic_name = kwargs.get('pic_name', None)
url = 'http://xxxx/rand_code_captcha/'
res = requests.get(url, stream=True)
with open(pic_path + pic_name+'.bmp', 'wb') as f:
for chunk in res.iter_content(chunk_size=1024):
if chunk: # filter out keep-alive new chunks
f.write(chunk)
f.flush()
f.close()
循環執行N次,即可保存N張驗證素材了。
下面是收集的幾十張素材庫保存到本地文件的效果圖:

8 圖片預處理
雖然目前的機器學習算法已經相當先進了,但是為了減少后面訓練時的復雜度,同時增加識別率,很有必要對圖片進行預處理,使其對機器識別更友好。
針對以上原始素材的處理步驟如下:
- 讀取原始圖片素材
- 將彩色圖片二值化為黑白圖片
- 去除背景噪點
8.1 二值化圖片
主要步驟如下:
- 將RGB彩圖轉為灰度圖
- 將灰度圖按照設定閾值轉化為二值圖
image = Image.open(img_path)
imgry = image.convert('L') # 轉化為灰度圖
table = get_bin_table()
out = imgry.point(table, '1')
由PIL轉化后變成二值圖片:0表示黑色,1表示白色。二值化后帶噪點的 6937 的像素點輸出后如下圖:
1111000111111000111111100001111100000011 1110111011110111011111011110111100110111 1001110011110111101011011010101101110111 1101111111110110101111110101111111101111 1101000111110111001111110011111111101111 1100111011111000001111111001011111011111 1101110001111111101011010110111111011111 1101111011111111101111011110111111011111 1101111011110111001111011110111111011100 1110000111111000011101100001110111011111
如果你是近視眼,然后離屏幕遠一點,可以隱約看到 6937 的骨架了。
8.2 去除噪點
在轉化為二值圖片后,就需要清除噪點。本文選擇的素材比較簡單,大部分噪點也是最簡單的那種 孤立點,所以可以通過檢測這些孤立點就能移除大量的噪點。
關於如何去除更復雜的噪點甚至干擾線和色塊,有比較成熟的算法: 洪水填充法 Flood Fill ,后面有興趣的時間可以繼續研究一下。
本文為了問題簡單化,干脆就用一種簡單的自己想的 簡單辦法 來解決掉這個問題:
- 對某個 黑點 周邊的九宮格里面的黑色點計數
- 如果黑色點少於2個則證明此點為孤立點,然后得到所有的孤立點
- 對所有孤立點一次批量移除。
下面將詳細介紹關於具體的算法原理。
將所有的像素點如下圖分成三大類
- 頂點A
- 非頂點的邊界點B
- 內部點C
種類點示意圖如下:
- A類點計算周邊相鄰的3個點(如上圖紅框所示)
- B類點計算周邊相鄰的5個點(如上圖紅框所示)
- C類點計算周邊相鄰的8個點(如上圖紅框所示)
當然,由於基准點在計算區域的方向不同,A類點和B類點還會有細分:
- A類點繼續細分為:左上,左下,右上,右下
- B類點繼續細分為:上,下,左,右
- C類點不用細分
然后這些細分點將成為后續坐標獲取的准則。
主要算法的python實現如下:
def sum_9_region(img, x, y):
"""
9鄰域框,以當前點為中心的田字框,黑點個數
:param x:
:param y:
:return:
"""
# todo 判斷圖片的長寬度下限
cur_pixel = img.getpixel((x, y)) # 當前像素點的值
width = img.width
height = img.height
if cur_pixel == 1: # 如果當前點為白色區域,則不統計鄰域值
return 0
if y == 0: # 第一行
if x == 0: # 左上頂點,4鄰域
# 中心點旁邊3個點
sum = cur_pixel \
+ img.getpixel((x, y + 1)) \
+ img.getpixel((x + 1, y)) \
+ img.getpixel((x + 1, y + 1))
return 4 - sum
elif x == width - 1: # 右上頂點
sum = cur_pixel \
+ img.getpixel((x, y + 1)) \
+ img.getpixel((x - 1, y)) \
+ img.getpixel((x - 1, y + 1))
return 4 - sum
else: # 最上非頂點,6鄰域
sum = img.getpixel((x - 1, y)) \
+ img.getpixel((x - 1, y + 1)) \
+ cur_pixel \
+ img.getpixel((x, y + 1)) \
+ img.getpixel((x + 1, y)) \
+ img.getpixel((x + 1, y + 1))
return 6 - sum
elif y == height - 1: # 最下面一行
if x == 0: # 左下頂點
# 中心點旁邊3個點
sum = cur_pixel \
+ img.getpixel((x + 1, y)) \
+ img.getpixel((x + 1, y - 1)) \
+ img.getpixel((x, y - 1))
return 4 - sum
elif x == width - 1: # 右下頂點
sum = cur_pixel \
+ img.getpixel((x, y - 1)) \
+ img.getpixel((x - 1, y)) \
+ img.getpixel((x - 1, y - 1))
return 4 - sum
else: # 最下非頂點,6鄰域
sum = cur_pixel \
+ img.getpixel((x - 1, y)) \
+ img.getpixel((x + 1, y)) \
+ img.getpixel((x, y - 1)) \
+ img.getpixel((x - 1, y - 1)) \
+ img.getpixel((x + 1, y - 1))
return 6 - sum
else: # y不在邊界
if x == 0: # 左邊非頂點
sum = img.getpixel((x, y - 1)) \
+ cur_pixel \
+ img.getpixel((x, y + 1)) \
+ img.getpixel((x + 1, y - 1)) \
+ img.getpixel((x + 1, y)) \
+ img.getpixel((x + 1, y + 1))
return 6 - sum
elif x == width - 1: # 右邊非頂點
# print('%s,%s' % (x, y))
sum = img.getpixel((x, y - 1)) \
+ cur_pixel \
+ img.getpixel((x, y + 1)) \
+ img.getpixel((x - 1, y - 1)) \
+ img.getpixel((x - 1, y)) \
+ img.getpixel((x - 1, y + 1))
return 6 - sum
else: # 具備9領域條件的
sum = img.getpixel((x - 1, y - 1)) \
+ img.getpixel((x - 1, y)) \
+ img.getpixel((x - 1, y + 1)) \
+ img.getpixel((x, y - 1)) \
+ cur_pixel \
+ img.getpixel((x, y + 1)) \
+ img.getpixel((x + 1, y - 1)) \
+ img.getpixel((x + 1, y)) \
+ img.getpixel((x + 1, y + 1))
return 9 - sum
Tips:這個地方是相當考驗人的細心和耐心程度了,這個地方的工作量還是蠻大的,花了半個晚上的時間才完成的。
計算好每個像素點的周邊像素黑點(注意:PIL轉化的圖片黑點的值為0)個數后,只需要篩選出個數為 1或者2 的點的坐標即為 孤立點 。這個判斷方法可能不太准確,但是基本上能夠滿足本文的需求了。
經過預處理后的圖片如下所示:

對比文章開頭的原始圖片,那些 孤立點 都被移除掉,相對比較 干凈 的驗證碼圖片已經生成。
9 圖片字符切割
由於字符型 驗證碼圖片 本質就可以看着是由一系列的 單個字符圖片 拼接而成,為了簡化研究對象,我們也可以將這些圖片分解到 原子級 ,即: 只包含單個字符的圖片。
於是,我們的研究對象由 “N種字串的組合對象” 變成 “10種阿拉伯數字” 的處理,極大的簡化和減少了處理對象。
9.1 分割算法
現實生活中的字符驗證碼的產生千奇百怪,有各種扭曲和變形。關於字符分割的算法,也沒有很通用的方式。這個算法也是需要開發人員仔細研究所要識別的字符圖片的特點來制定的。
當然,本文所選的研究對象盡量簡化了這個步驟的難度,下文將慢慢進行介紹。
使用圖像編輯軟件(PhoneShop或者其它)打開驗證碼圖片,放大到像素級別,觀察其它一些參數特點:

可以得到如下參數:
- 整個圖片尺寸是 40*10
- 單個字符尺寸是 6*10
- 左右字符和左右邊緣相距2個像素
- 字符上下緊挨邊緣(即相距0個像素)
這樣就可以很容易就定位到每個字符在整個圖片中占據的像素區域,然后就可以進行分割了,具體代碼如下:
def get_crop_imgs(img):
"""
按照圖片的特點,進行切割,這個要根據具體的驗證碼來進行工作. # 見原理圖
:param img:
:return:
"""
child_img_list = []
for i in range(4):
x = 2 + i * (6 + 4) # 見原理圖
y = 0
child_img = img.crop((x, y, x + 6, y + 10))
child_img_list.append(child_img)
return child_img_list
然后就能得到被切割的 原子級 的圖片元素了:

9.2 內容小結
基於本部分的內容的討論,相信大家已經了解到了,如果驗證碼的干擾(扭曲,噪點,干擾色塊,干擾線……)做得不夠強的話,可以得到如下兩個結論:
-
4位字符和40000位字符的驗證碼區別不大
-
- 純數字 和 數字及字母組合 的驗證碼區別不大
-
-
純數字。分類數為10
-
- 純字母
-
- 不區分大小寫。分類數為26
- 區分大小寫。分類數為54
-
數字和區分大小寫的字母組合。分類數為64
-
在沒有形成 指數級或者幾何級 的難度增加,而只是 線性有限級 增加計算量時,意義不太大。
10 尺寸歸一
本文所選擇的研究對象本身尺寸就是統一狀態:6*10的規格,所以此部分不需要額外處理。但是一些進行了扭曲和縮放的驗證碼,則此部分也會是一個圖像處理的難點。
11 模型訓練步驟
在前面的環節,已經完成了對單個圖片的處理和分割了。后面就開始進行 識別模型 的訓練了。
整個訓練過程如下:
- 大量完成預處理並切割到原子級的圖片素材准備
- 對素材圖片進行人為分類,即:打標簽
- 定義單張圖片的識別特征
- 使用SVM訓練模型對打了標簽的特征文件進行訓練,得到模型文件
12 素材准備
本文在訓練階段重新下載了同一模式的4數字的驗證圖片總計:3000張。然后對這3000張圖片進行處理和切割,得到12000張原子級圖片。
在這12000張圖片中刪除一些會影響訓練和識別的強干擾的干擾素材,切割后的效果圖如下:

13 素材標記
由於本文使用的這種識別方法中,機器在最開始是不具備任何 數字的觀念的。所以需要人為的對素材進行標識,告訴 機器什么樣的圖片的內容是 1……。
這個過程叫做 “標記”。
具體打標簽的方法是:
-
為0~9每個數字建立一個目錄,目錄名稱為相應數字(相當於標簽)
-
人為判定 圖片內容,並將圖片拖到指定數字目錄中
-
- 每個目錄中存放100張左右的素材
-
一般情況下,標記的素材越多,那么訓練出的模型的分辨能力和預測能力越強。例如本文中,標記素材為十多張的時候,對新的測試圖片識別率基本為零,但是到達100張時,則可以達到近乎100%的識別率
14 特征選擇
對於切割后的單個字符圖片,像素級放大圖如下:

從宏觀上看,不同的數字圖片的本質就是將黑色按照一定規則填充在相應的像素點上,所以這些特征都是最后圍繞像素點進行。
字符圖片 寬6個像素,高10個像素 ,理論上可以最簡單粗暴地可以定義出60個特征:60個像素點上面的像素值。但是顯然這樣高維度必然會造成過大的計算量,可以適當的降維。
通過查閱相應的文獻 [2],給出另外一種簡單粗暴的特征定義:
- 每行上黑色像素的個數,可以得到10個特征
- 每列上黑色像素的個數,可以得到6個特征
最后得到16維的一組特征,實現代碼如下:
def get_feature(img):
"""
獲取指定圖片的特征值,
1. 按照每排的像素點,高度為10,則有10個維度,然后為6列,總共16個維度
:param img_path:
:return:一個維度為10(高度)的列表
"""
width, height = img.size
pixel_cnt_list = []
height = 10
for y in range(height):
pix_cnt_x = 0
for x in range(width):
if img.getpixel((x, y)) == 0: # 黑色點
pix_cnt_x += 1
pixel_cnt_list.append(pix_cnt_x)
for x in range(width):
pix_cnt_y = 0
for y in range(height):
if img.getpixel((x, y)) == 0: # 黑色點
pix_cnt_y += 1
pixel_cnt_list.append(pix_cnt_y)
return pixel_cnt_list
然后就將圖片素材特征化,按照 libSVM 指定的格式生成一組帶特征值和標記值的向量文件。內容示例如下:
說明如下:
- 第一列是標簽列,即此圖片人為標記值,后續還有其它數值1~9的標記
- 后面是16組特征值,冒號前面是索引號,后面是值
- 如果有1000張訓練圖片,那么會產生1000行的記錄
對此文件格式有興趣的同學,可以到 libSVM 官網搜索更多的資料。
15 模型訓練
到這個階段后,由於本文直接使用的是開源的 libSVM 方案,屬於應用了,所以此處內容就比較簡單的。只需要輸入特征文件,然后輸出模型文件即可。
可以搜索到很多相關中文資料 [1] 。
主要代碼如下:
def train_svm_model():
"""
訓練並生成model文件
:return:
"""
y, x = svm_read_problem(svm_root + '/train_pix_feature_xy.txt')
model = svm_train(y, x)
svm_save_model(model_path, model)
備注:生成的模型文件名稱為 svm_model_file
16 模型測試
訓練生成模型后,需要使用 訓練集 之外的全新的標記后的圖片作為 測試集 來對模型進行測試。
本文中的測試實驗如下:
- 使用一組全部標記為8的21張圖片來進行模型測試
- 測試圖片生成帶標記的特征文件名稱為 last_test_pix_xy_new.txt
在早期訓練集樣本只有每字符十幾張圖的時候,雖然對訓練集樣本有很好的區分度,但是對於新樣本測試集基本沒區分能力,識別基本是錯誤的。逐漸增加標記為8的訓練集的樣本后情況有了比較好的改觀:
- 到60張左右的時候,正確率大概80%
- 到185張的時候,正確率基本上達到100%
以數字8的這種模型強化方法,繼續強化對數字0~9中的其它數字的模型訓練,最后可以達到對所有的數字的圖片的識別率達到近乎 100%。在本文示例中基本上每個數字的訓練集在100張左右時,就可以達到100%的識別率了。
模型測試代碼如下:
def svm_model_test():
"""
使用測試集測試模型
:return:
"""
yt, xt = svm_read_problem(svm_root + '/last_test_pix_xy_new.txt')
model = svm_load_model(model_path)
p_label, p_acc, p_val = svm_predict(yt, xt, model)#p_label即為識別的結果
cnt = 0
for item in p_label:
print('%d' % item, end=',')
cnt += 1
if cnt % 8 == 0:
print('')
至此,驗證的識別工作算是完滿結束。
17 完整識別流程
在前面的環節,驗證碼識別 的相關工具集都准備好了。然后對指定的網絡上的動態驗證碼形成持續不斷地識別,還需要另外寫一點代碼來組織這個流程,以形成穩定的黑盒的驗證碼識別接口。
主要步驟如下:
- 傳入一組驗證碼圖片
- 對圖片進行預處理:去噪,二值等等
- 切割成4張有序的單字符圖片
- 使用模型文件分別對4張圖片進行識別
- 將識別結果拼接
- 返回識別結果
然后本文中,請求某網絡驗證碼的http接口,獲得驗證碼圖片,識別出結果,以此結果作為名稱保存此驗證圖片。效果如下:

顯然,已經達到幾乎 100% 的識別率了。
在本算法沒有做任何優化的情況下,在目前主流配置的PC機上運行此程序,可以實現200ms識別一個(很大的耗時來自網絡請求的阻塞)。
18 效率優化
后期通過優化的方式可以達到更好的效率。
軟件層次優化
- 將圖片資源的網絡請求部分做成異步非阻塞模式
- 利用好多核CPU,多進程並行運行
- 在圖片特征上認真挑選和實驗,降低維度
預計可以達到1s識別10到100個驗證碼的樣子。
硬件層次優化
- 粗暴地增加CPU性能
- 粗暴地增加運行機器
基本上,10台4核心機器同時請求,保守估計效率可以提升到1s識別1萬個驗證碼。
19 互聯網安全警示
如果驗證碼被識別出來后,會有什么安全隱患呢?
在大家通過上一小節對識別效率有了認識之后,再提到這樣的場景,大家會有新的看法了吧:
- 12306火車售票網,春節期間早上8:00某車次放出的500張票,1s內全部被搶光,最后發現正常需求的人搶不到票,但是黃牛卻大大的有票
- 某某手機網站,早上10:00開啟搶購活動,守候了許久的無數的你都鎩羽而歸,但是同樣黃牛卻大量有貨
暫先不管后面有沒有手續上的黑幕,在一切手續合法的情況下,只要通過技術手段識別掉了驗證碼,再通過計算機強大的計算力和自動化能力,將大量資源搶到少數黃牛手中在技術是完全可行的。
所以今后大家搶不到票不爽的時候,可以繼續罵12306,但是不要罵它有黑幕了,而是罵他們IT技術不精吧。
關於一個驗證碼失效,即相當於沒有驗證碼的系統,再沒有其它風控策略的情況下,那么這個系統對於代碼程序來就就完全如入無人之境。
具體請參考:
http://www.cnblogs.com/beer/p/4814587.html
通過上面的例子,大家可以看到:
- 目前確實有一些web應用系統連驗證碼都沒有,只能任人宰割
- 即使web應用系統有驗證碼但是難度不夠,也只能任人宰割
所以,這一塊雖然小,但是安全問題不能忽視。
20 積極應用場景
本文介紹的其實是一項簡單的OCR技術實現。有一些很好同時也很有積極進步意義的應用場景:
- 銀行卡號識別
- 身份證號識別
- 車牌號碼識別
這些場景有具有和本文所研究素材很相似的特點:
- 字體單一
- 字符為簡單的數字或字母組合
- 文字的排列是標准化統一化的
所以如果拍照時原始數據采集比較規范的情況下,識別起來應該難度也不大。

