opencv-python車牌字符分割和識別入門(轉)


最近做一個車牌識別項目,入門級別的,十分簡單。

車牌識別總體分成兩個大的步驟:

一、車牌定位:從照片中圈出車牌

二、車牌字符識別

這里只說第二個步驟,字符識別包括兩個步驟:

1、圖像處理:原本的圖像每個像素點都是RGB定義的,或者稱為有R/G/B三個通道。在這種情況下,很難區分誰是背景,誰是字符,所以需要對圖像進行一些處理,把每個RGB定義的像素點都轉化成一個bit位(即0-1代碼),具體方法如下:

①將圖片灰度化

名字拗口,但是意思很好理解,就是把每個像素的RGB都變成灰色的RGB值,而灰色的RGB值是R=G=B的。具體怎么改變暫且忽略,因為OpenCV有封裝好的函數。

②將灰度圖片二值化

我們做第一步的目的就是為了讓每個像素都可以轉變成0或1。再解釋一下,既然每個像素的RGB值都相等了,那么將這個值稱為灰度值,假設一張灰度車牌圖片中,背景的灰度值集中在180(十進制)左右,而字符的灰度值集中在20左右,那么我們規定一個中間值100,小於100的像素點就可以全部變成0,大於100的像素點可以全部變成1,這樣就實現了二值化。

③旋轉調平

這個就不說了。

④去燥

這個涉及另外一些方法,以后有時間再補充,入門項目不作要求。

 

2、圖像切割和識別

①圖像切割

切割可以很簡單,也可以很難,關鍵是方法的選擇。

在這就用最弱智的方法進行切割吧。

圖片現在已經成為一個0-1矩陣了,其中要么0是背景而1是字符,或者1是背景而0是字符,那就簡單粗暴地用每一列的0-1數來切割。

我先在這里假設圖片幾乎水平,而且幾乎沒有噪點,具體方法如下:

a.將每一列的1值和0值分別統計起來。

b.根據每一列的0-1總和變換來切割字符

②圖像識別

將每一個字符的圖片分割出來后,就可以根據模板來判斷是哪個字符了。

簡單的方法有兩種:

a.逐個像素比對,如果一致則count加一,最后根據count值確定匹配結果。

b.投影匹配:將每行、每列的像素位統計起來,根據差值大小來確定匹配結果。

兩種方法結合效果很好。

具體的識別之后再補充。

 

下面是字符分割的代碼。

import cv2
 
# 1、讀取圖像,並把圖像轉換為灰度圖像並顯示
img = cv2.imread("chepai/6.png")  # 讀取圖片
img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)   # 轉換了灰度化
cv2.imshow('gray', img_gray)  # 顯示圖片
cv2.waitKey(0)
 
# 2、將灰度圖像二值化,設定閾值是100
img_thre = img_gray
cv2.threshold(img_gray, 100, 255, cv2.THRESH_BINARY_INV, img_thre)
cv2.imshow('threshold', img_thre)
cv2.waitKey(0)
 
# 3、保存黑白圖片
cv2.imwrite('thre_res.png', img_thre)
 
# 4、分割字符
white = []  # 記錄每一列的白色像素總和
black = []  # ..........黑色.......
height = img_thre.shape[0]
width = img_thre.shape[1]
white_max = 0
black_max = 0
# 計算每一列的黑白色像素總和
for i in range(width):
    s = 0  # 這一列白色總數
    t = 0  # 這一列黑色總數
    for j in range(height):
        if img_thre[j][i] == 255:
            s += 1
        if img_thre[j][i] == 0:
            t += 1
    white_max = max(white_max, s)
    black_max = max(black_max, t)
    white.append(s)
    black.append(t)
    print(s)
    print(t)
 
arg = False  # False表示白底黑字;True表示黑底白字
if black_max > white_max:
    arg = True
 
# 分割圖像
def find_end(start_):
    end_ = start_+1
    for m in range(start_+1, width-1):
        if (black[m] if arg else white[m]) > (0.95 * black_max if arg else 0.95 * white_max):  # 0.95這個參數請多調整,對應下面的0.05
            end_ = m
            break
    return end_
 
n = 1
start = 1
end = 2
while n < width-2:
    n += 1
    if (white[n] if arg else black[n]) > (0.05 * white_max if arg else 0.05 * black_max):
        # 上面這些判斷用來辨別是白底黑字還是黑底白字
        # 0.05這個參數請多調整,對應上面的0.95
        start = n
        end = find_end(start)
        n = end
        if end-start > 5:
            cj = img_thre[1:height, start:end]
            cv2.imshow('caijian', cj)
            cv2.waitKey(0)

源程序中沒有將圖片輸出,而只是顯示出來,下面是執行結果

原圖片:

灰度圖片:

二值圖片:(白底黑字)

分割后:

總體分割效果還是補充。但是遇到干擾較多的圖片,比如左右邊框太大、噪點太多,這樣就不能分割出來,各位可以試一下不同的照片。


————————————————
版權聲明:本文為CSDN博主「Jdfohewk」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/m0_38024433/article/details/78650024


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM