Python3+Dlib實現簡單人臉識別案例
寫在前邊
很早很早之前,當我還是一個傻了吧唧的專科生的時候,我就聽說過人臉識別,聽說過算法,聽說過人工智能,並且也出生牛犢不怕虎般的學習過TensorFlow,結果嘞,被虎啃得連渣都不剩!從此再也不敢接觸算法和人工智能了、、、
但是!BUT!在自己經歷的事情多了之后,在受打擊到習以為常了之后, 在努力半天仍舊一事無成之后,你就會悟出一個道理 —— 老子從未成功過,又怕哪門子失敗!
所以,對數學一竅不通的我,毅然決然的再次走上了一條不歸路 ......
—— 來自一只一事無成的小菜雞
項目介紹
我想做的是一個類似於人臉識別的東西。看到網上也是有很多的開源庫提供使用,為開發提供了很大的方便。我選擇目前用的比較多的dlib庫進行人臉識別與特征標定。使用python也縮短了開發周期。
官網對於dlib的介紹是:Dlib包含廣泛的機器學習算法。所有的設計都是高度模塊化的,快速執行,並且通過一個干凈而現代的C ++ API,使用起來非常簡單。它用於各種應用,包括機器人技術,嵌入式設備,手機和大型高性能計算環境。
盡管解釋都很高大上,但是呢,對於我這種小菜雞而言,利用他的九牛一毛做一些小的demo也很不錯。
開發環境的搭建
因為我的操作系統是Linux的,所以我使用Linux來記錄,windows需要安裝的東西都是一樣的,只不過有個別包安裝起來有點麻煩,不過不是問題。
1、安裝 Python 。
如果是Linux系統自帶Python2和Python3,可以根據自己的需要設置Python默認版本。
2、安裝 opencv。
https://www.cnblogs.com/wjw1014/p/10255126.html
3、安裝 dlib。
https://www.cnblogs.com/wjw1014/p/10255126.html
4、安裝 python-skimage。
https://www.cnblogs.com/wjw1014/p/10287081.html
5、如果想要使用人臉模型特征標定的話,還需要一個人臉面部形狀預測器。
這個可以通過自己的照片進行訓練,也可以從網上下載一些大神訓練好的,點擊下載:
http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2
實現圖片的人臉檢測
import cv2 import dlib from skimage import io # 使用特征提取器get_frontal_face_detector detector = dlib.get_frontal_face_detector() # dlib的68點模型,使用作者訓練好的特征預測器 predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat") # 圖片所在路徑 img = io.imread("2.jpg") # 生成dlib的圖像窗口 win = dlib.image_window() win.clear_overlay() win.set_image(img) # 特征提取器的實例化 dets = detector(img, 1) print("人臉數:", len(dets)) for k, d in enumerate(dets): print("第", k + 1, "個人臉d的坐標:", "left:", d.left(), "right:", d.right(), "top:", d.top(), "bottom:", d.bottom()) width = d.right() - d.left() heigth = d.bottom() - d.top() print('人臉面積為:', (width * heigth)) # 利用預測器預測 shape = predictor(img, d) # 標出68個點的位置 for i in range(68): cv2.circle(img, (shape.part(i).x, shape.part(i).y), 4, (0, 255, 0), -1, 8) cv2.putText(img, str(i), (shape.part(i).x, shape.part(i).y), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 255, 255)) # 顯示一下處理的圖片,然后銷毀窗口 cv2.imshow('face', img) cv2.waitKey(0)
利用攝像頭實現人臉識別情緒檢測
#!Anaconda/anaconda/python # coding: utf-8 """ 從視屏中識別人臉,並實時標出面部特征點 """ import dlib # 人臉識別的庫dlib import numpy as np # 數據處理的庫numpy import cv2 # 圖像處理的庫OpenCv class face_emotion(): def __init__(self): # 使用特征提取器get_frontal_face_detector self.detector = dlib.get_frontal_face_detector() # dlib的68點模型,使用作者訓練好的特征預測器 self.predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat") # 建cv2攝像頭對象,這里使用電腦自帶攝像頭,如果接了外部攝像頭,則自動切換到外部攝像頭 self.cap = cv2.VideoCapture(0) # 設置視頻參數,propId設置的視頻參數,value設置的參數值 self.cap.set(3, 480) # 截圖screenshoot的計數器 self.cnt = 0 def learning_face(self): # 眉毛直線擬合數據緩沖 line_brow_x = [] line_brow_y = [] # cap.isOpened() 返回true/false 檢查初始化是否成功 while (self.cap.isOpened()): # cap.read() # 返回兩個值: # 一個布爾值true/false,用來判斷讀取視頻是否成功/是否到視頻末尾 # 圖像對象,圖像的三維矩陣 flag, im_rd = self.cap.read() # 每幀數據延時1ms,延時為0讀取的是靜態幀 k = cv2.waitKey(1) # 取灰度 img_gray = cv2.cvtColor(im_rd, cv2.COLOR_RGB2GRAY) # 使用人臉檢測器檢測每一幀圖像中的人臉。並返回人臉數rects faces = self.detector(img_gray, 0) # 待會要顯示在屏幕上的字體 font = cv2.FONT_HERSHEY_SIMPLEX # 如果檢測到人臉 if (len(faces) != 0): # 對每個人臉都標出68個特征點 for i in range(len(faces)): # enumerate方法同時返回數據對象的索引和數據,k為索引,d為faces中的對象 for k, d in enumerate(faces): # 用紅色矩形框出人臉 cv2.rectangle(im_rd, (d.left(), d.top()), (d.right(), d.bottom()), (0, 0, 255)) # 計算人臉熱別框邊長 self.face_width = d.right() - d.left() # 使用預測器得到68點數據的坐標 shape = self.predictor(im_rd, d) # 圓圈顯示每個特征點 for i in range(68): cv2.circle(im_rd, (shape.part(i).x, shape.part(i).y), 2, (0, 255, 0), -1, 8) # cv2.putText(im_rd, str(i), (shape.part(i).x, shape.part(i).y), cv2.FONT_HERSHEY_SIMPLEX, 0.5, # (255, 255, 255)) # 分析任意n點的位置關系來作為表情識別的依據 mouth_width = (shape.part(54).x - shape.part(48).x) / self.face_width # 嘴巴咧開程度 mouth_higth = (shape.part(66).y - shape.part(62).y) / self.face_width # 嘴巴張開程度 # print("嘴巴寬度與識別框寬度之比:",mouth_width_arv) # print("嘴巴高度與識別框高度之比:",mouth_higth_arv) # 通過兩個眉毛上的10個特征點,分析挑眉程度和皺眉程度 brow_sum = 0 # 高度之和 frown_sum = 0 # 兩邊眉毛距離之和 for j in range(17, 21): brow_sum += (shape.part(j).y - d.top()) + (shape.part(j + 5).y - d.top()) frown_sum += shape.part(j + 5).x - shape.part(j).x line_brow_x.append(shape.part(j).x) line_brow_y.append(shape.part(j).y) # self.brow_k, self.brow_d = self.fit_slr(line_brow_x, line_brow_y) # 計算眉毛的傾斜程度 tempx = np.array(line_brow_x) tempy = np.array(line_brow_y) z1 = np.polyfit(tempx, tempy, 1) # 擬合成一次直線 self.brow_k = -round(z1[0], 3) # 擬合出曲線的斜率和實際眉毛的傾斜方向是相反的 brow_hight = (brow_sum / 10) / self.face_width # 眉毛高度占比 brow_width = (frown_sum / 5) / self.face_width # 眉毛距離占比 # print("眉毛高度與識別框高度之比:",round(brow_arv/self.face_width,3)) # print("眉毛間距與識別框高度之比:",round(frown_arv/self.face_width,3)) # 眼睛睜開程度 eye_sum = (shape.part(41).y - shape.part(37).y + shape.part(40).y - shape.part(38).y + shape.part(47).y - shape.part(43).y + shape.part(46).y - shape.part(44).y) eye_hight = (eye_sum / 4) / self.face_width # print("眼睛睜開距離與識別框高度之比:",round(eye_open/self.face_width,3)) # 分情況討論 # 張嘴,可能是開心或者驚訝 if round(mouth_higth >= 0.03): if eye_hight >= 0.056: cv2.putText(im_rd, "amazing", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 0, 255), 2, 4) else: cv2.putText(im_rd, "happy", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 0, 255), 2, 4) # 沒有張嘴,可能是正常和生氣 else: if self.brow_k <= -0.3: cv2.putText(im_rd, "angry", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 0, 255), 2, 4) else: cv2.putText(im_rd, "nature", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 0, 255), 2, 4) # 標出人臉數 cv2.putText(im_rd, "Faces: " + str(len(faces)), (20, 50), font, 1, (0, 0, 255), 1, cv2.LINE_AA) else: # 沒有檢測到人臉 cv2.putText(im_rd, "No Face", (20, 50), font, 1, (0, 0, 255), 1, cv2.LINE_AA) # 添加說明 im_rd = cv2.putText(im_rd, "S: screenshot", (20, 400), font, 0.8, (0, 0, 255), 1, cv2.LINE_AA) im_rd = cv2.putText(im_rd, "Q: quit", (20, 450), font, 0.8, (0, 0, 255), 1, cv2.LINE_AA) # 按下s鍵截圖保存 if (k == ord('s')): self.cnt += 1 cv2.imwrite("screenshoot" + str(self.cnt) + ".jpg", im_rd) # 按下q鍵退出 if (k == ord('q')): break # 窗口顯示 cv2.imshow("camera", im_rd) # 釋放攝像頭 self.cap.release() # 刪除建立的窗口 cv2.destroyAllWindows() if __name__ == "__main__": my_face = face_emotion() my_face.learning_face()
寫在后面
OK,我承認,這不是我寫的,我很菜,寫不出來,站在巨人的腳指甲蓋上做出來的,好的,其實是把人家代碼拷貝下來自己改的,也沒改多少。