上次我們成功訓練了手掌識別器http://www.cnblogs.com/take-fetter/p/8438747.html,可以成功得到識別的結果如圖
接下來需要使用opencv來獲取手掌,去除背景部分,這里就需要用到掩膜(mask)、ROI(region of interest)等相關知識,具體的概念還是不講了,網上很多。
首先從圖中根據上次的程序畫框部分提取手掌(當然自己截圖再保存也可以-.-)如下
接下來講解一下提取手掌的方法
- 將圖片copy,並將圖片轉換為ycrcb模式,根據ycrcb中的膚色獲取和手掌顏色相近的部分,生成黑白圖片
- 使用黑白圖片獲得最大的輪廓並生成輪廓圖片並得到一個近似的橢圓
- 根據橢圓角度進行旋轉(原圖片和黑白圖片及輪廓圖片同時旋轉)以盡可能的將手掌放為豎直
- 根據原圖片和黑白圖片,利用黑白圖片作為掩膜,得到的原圖片如下:
提取手掌中心:
算法思想:根據黑白圖片,基於距離變換得到手掌中心,並根據最大半徑畫出手掌的內切圓如圖
代碼如下
distance = cv2.distanceTransform(black_and_white, cv2.DIST_L2, 5, cv2.CV_32F) # Calculates the distance to the closest zero pixel for each pixel of the source image. maxdist = 0 # rows,cols = img.shape for i in range(distance.shape[0]): for j in range(distance.shape[1]): dist = distance[i][j] if maxdist < dist: x = j y = i maxdist = dist
cv2.circle(original, (x, y), maxdist, (255, 100, 255), 1, 8, 0)
提取掌紋
現在我們已知了圓的半徑和圓心坐標,因此可以根據ROI提取出內切正方形(雖然內切正方形會損失很多的信息,但是目前我還沒有想到其他的更好的辦法),作出正方形如下
作正方形並提取的代碼如下
final_img = original.copy()
#cv2.circle() this line half_slide = maxdist * math.cos(math.pi / 4) (left, right, top, bottom) = ((x - half_slide), (x + half_slide), (y - half_slide), (y + half_slide)) p1 = (int(left), int(top)) p2 = (int(right), int(bottom)) cv2.rectangle(original, p1, p2, (77, 255, 9), 1, 1) final_img = final_img[int(top):int(bottom),int(left):int(right)]
運行截圖
可以看到出現了灰色部分,按理說是不會存在的,使用cv2.imwrite發現沒有出現任何問題,如圖
感覺是cv2.imshow對於輸出圖片的像素大小有一定限制,進行了自動填充或者是默認有灰色作為背景色且比在這里我們提取出的圖片要大
代碼地址:https://github.com/takefetter/Get_PalmPrint/blob/master/process_palm.py
感謝:
1.https://github.com/dev-td7/Automatic-Hand-Detection-using-Wrist-localisation 這位老哥的repo,基於膚色的提取和形成近似橢圓給我的啟發很大(雖然后半部分完全沒有用.....)
2.http://answers.opencv.org/question/180668/how-to-find-the-center-of-one-palm-in-the-picture/ 雖然基於距離變化參考至這里的回答,不過也算是完成了提問者的需求。
轉載請注明出處http://www.cnblogs.com/take-fetter/p/8453589.html