用Python獲取攝像頭並實時控制人臉


實現流程
從攝像頭獲取視頻流,並轉換為一幀一幀的圖像,然后將圖像信息傳遞給opencv這個工具庫處理,返回灰度圖像(就像你使用本地靜態圖片一樣)

程序啟動后,根據監聽器信息,使用一個while循環,不斷的加載視頻圖像,然后返回給opencv工具呈現圖像信息。

創建一個鍵盤事件監聽,按下"d"鍵,則開始執行面部匹配,並進行面具加載(這個過程是動態的,你可以隨時移動)。

面部匹配使用Dlib中的人臉檢測算法來查看是否有人臉存在。如果有,它將為每個人臉創建一個結束位置,眼鏡和煙卷會移動到那里結束。

然后我們需要縮放和旋轉我們的眼鏡以適合每個人的臉。我們將使用從Dlib的68點模型返回的點集來找到眼睛和嘴巴的中心,並為它們之間的空間旋轉。

在我們實時獲取眼鏡和煙卷的最終位置后,眼鏡和煙卷從屏幕頂部進入,開始匹配你的眼鏡和嘴巴。

假如沒有人臉,程序會直接返回你的視頻信息,不會有面具移動的效果。

默認一個周期是4秒鍾。然后你可以通過"d"鍵再次檢測。

程序退出使用"q"鍵。

這里我將這個功能抽象成一個面具加載服務,請跟隨我的代碼一窺究竟吧。
1.導入對應的工具包

 

from time import sleep

import cv2
import numpy as np
from PIL import Image
from imutils import face_utils, resize

try:
    from dlib import get_frontal_face_detector, shape_predictor
except ImportError:
    raise


創建面具加載服務類DynamicStreamMaskService及其對應的初始化屬性:

 

class DynamicStreamMaskService(object):
    """
    動態黏貼面具服務
    """

    def __init__(self, saved=False):
        self.saved = saved  # 是否保存圖片
        self.listener = True  # 啟動參數
        self.video_capture = cv2.VideoCapture(0)  # 調用本地攝像頭
        self.doing = False  # 是否進行面部面具
        self.speed = 0.1  # 面具移動速度
        self.detector = get_frontal_face_detector()  # 面部識別器
        self.predictor = shape_predictor("shape_predictor_68_face_landmarks.dat")  # 面部分析器
        self.fps = 4  # 面具存在時間基礎時間
        self.animation_time = 0  # 動畫周期初始值
        self.duration = self.fps * 4  # 動畫周期最大值
        self.fixed_time = 4  # 畫圖之后,停留時間
        self.max_width = 500  # 圖像大小
        self.deal, self.text, self.cigarette = None, None, None  # 面具對象


按照上面介紹,我們先實現讀取視頻流轉換圖片的函數:

 

def read_data(self):
    """
    從攝像頭獲取視頻流,並轉換為一幀一幀的圖像
    :return: 返回一幀一幀的圖像信息
    """
    _, data = self.video_capture.read()
    return data


接下來我們實現人臉定位函數,及眼鏡和煙卷的定位:

 

def get_glasses_info(self, face_shape, face_width):
    """
    獲取當前面部的眼鏡信息
    :param face_shape:
    :param face_width:
    :return:
    """
    left_eye = face_shape[36:42]
    right_eye = face_shape[42:48]

    left_eye_center = left_eye.mean(axis=0).astype("int")
    right_eye_center = right_eye.mean(axis=0).astype("int")

    y = left_eye_center[1] - right_eye_center[1]
    x = left_eye_center[0] - right_eye_center[0]
    eye_angle = np.rad2deg(np.arctan2(y, x))

    deal = self.deal.resize(
        (face_width, int(face_width * self.deal.size[1] / self.deal.size[0])),
        resample=Image.LANCZOS)

    deal = deal.rotate(eye_angle, expand=True)
    deal = deal.transpose(Image.FLIP_TOP_BOTTOM)

    left_eye_x = left_eye[0, 0] - face_width // 4
    left_eye_y = left_eye[0, 1] - face_width // 6

    return {"image": deal, "pos": (left_eye_x, left_eye_y)}

def get_cigarette_info(self, face_shape, face_width):
    """
    獲取當前面部的煙卷信息
    :param face_shape:
    :param face_width:
    :return:
    """
    mouth = face_shape[49:68]
    mouth_center = mouth.mean(axis=0).astype("int")
    cigarette = self.cigarette.resize(
        (face_width, int(face_width * self.cigarette.size[1] / self.cigarette.size[0])),
        resample=Image.LANCZOS)
    x = mouth[0, 0] - face_width + int(16 * face_width / self.cigarette.size[0])
    y = mouth_center[1]
    return {"image": cigarette, "pos": (x, y)}

def orientation(self, rects, img_gray):
    """
    人臉定位
    :return:
    """
    faces = []
    for rect in rects:
        face = {}
        face_shades_width = rect.right() - rect.left()
        predictor_shape = self.predictor(img_gray, rect)
        face_shape = face_utils.shape_to_np(predictor_shape)
        face['cigarette'] = self.get_cigarette_info(face_shape, face_shades_width)
        face['glasses'] = self.get_glasses_info(face_shape, face_shades_width)

        faces.append(face)

    return faces


剛才我們提到了鍵盤監聽事件,這里我們實現一下這個函數:

 

def listener_keys(self):
    """
    設置鍵盤監聽事件
    :return:
    """
    key = cv2.waitKey(1) & 0xFF
    if key == ord("q"):
        self.listener = False
        self.console("程序退出")
        sleep(1)
        self.exit()

    if key == ord("d"):
        self.doing = not self.doing


接下來我們來實現加載面具信息的函數:

 

def init_mask(self):
    """
    加載面具
    :return:
    """
    self.console("加載面具...")
    self.deal, self.text, self.cigarette = (
        Image.open(x) for x in ["images/deals.png", "images/text.png", "images/cigarette.png"]
    )


上面基本的功能都實現了,我們該實現畫圖函數了,這個函數原理和之前我寫的那篇用AI人臉識別技術實現抖音特效實現是一樣的,這里我就不贅述了,可以去github或Python中文社區微信公眾號查看。

 

def drawing(self, draw_img, faces):
    """
    畫圖
    :param draw_img:
    :param faces:
    :return:
    """
    for face in faces:
        if self.animation_time < self.duration - self.fixed_time:
            current_x = int(face["glasses"]["pos"][0])
            current_y = int(face["glasses"]["pos"][1] * self.animation_time / (self.duration - self.fixed_time))
            draw_img.paste(face["glasses"]["image"], (current_x, current_y), face["glasses"]["image"])

            cigarette_x = int(face["cigarette"]["pos"][0])
            cigarette_y = int(face["cigarette"]["pos"][1] * self.animation_time / (self.duration - self.fixed_time))
            draw_img.paste(face["cigarette"]["image"], (cigarette_x, cigarette_y),
                           face["cigarette"]["image"])
        else:
            draw_img.paste(face["glasses"]["image"], face["glasses"]["pos"], face["glasses"]["image"])
            draw_img.paste(face["cigarette"]["image"], face["cigarette"]["pos"], face["cigarette"]["image"])
            draw_img.paste(self.text, (75, draw_img.height // 2 + 128), self.text)


既然是一個服務類,那該有啟動與退出函數吧,最后我們來寫一下吧。

簡單介紹一下這個start()函數, 啟動后根據初始化監聽信息,不斷監聽視頻流,並將流信息通過opencv轉換成圖像展示出來。
並且調用按鍵監聽函數,不斷的監聽你是否按下"d"鍵進行面具加載,如果監聽成功,則進行圖像人臉檢測,並移動面具,
並持續一個周期的時間結束,面具此時會根據你的面部移動而移動。最終呈現文章頂部圖片的效果.

def start(self):
    """
    啟動程序
    :return:
    """
    self.console("程序啟動成功.")
    self.init_mask()
    while self.listener:
        frame = self.read_data()
        frame = resize(frame, width=self.max_width)
        img_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
        rects = self.detector(img_gray, 0)
        faces = self.orientation(rects, img_gray)
        draw_img = Image.fromarray(cv2.cvtColor(frame, cv2.COLOR_BGR2RGB))
        if self.doing:
            self.drawing(draw_img, faces)
            self.animation_time += self.speed
            self.save_data(draw_img)
            if self.animation_time > self.duration:
                self.doing = False
                self.animation_time = 0
            else:
                frame = cv2.cvtColor(np.asarray(draw_img), cv2.COLOR_RGB2BGR)
        cv2.imshow("hello mask", frame)
        self.listener_keys()

def exit(self):
    """
    程序退出
    :return:
    """
    self.video_capture.release()
    cv2.destroyAllWindows()


最后,讓我們試試:

 

if __name__ == '__main__':
    ms = DynamicStreamMaskService()
    ms.start()


寫到這里,這個小功能就已經實現了,大家不妨事來使用一下。

 

--------------------- 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM