目录

1 引言
2 环境配置
    2.1 下载和安装Anaconda
    2.2 安装OpenCv库
    2.3 安装Dlib库
3 实现人脸情绪判别功能
    3.1 人脸情绪判别规则
    3.2 人脸情绪判别实现步骤
4 源代码及测试结果
    4.1 实际测试结果
    4.2 源代码
5 参考资料


1 引言

    使用Python3.6开发,利用Dlib库实现人脸识别以及情绪分析的功能。利用 Dlib 官方训练好的模型 “shape_predictor_68_face_landmarks.dat” 进行 68 个特征点标定,利用 OpenCv 进行图像化处理,在人脸上画出 68 个特征点,并标明特征点的序号。使用嘴巴的张开比例,眼睛的睁开程度,眉毛的倾斜程度作为表情分析的三个指标,通过计算特征点之间的欧氏距离,来判断人脸的表情。方法较为简单,识别的效率不是很高,可以在此基础上进行改善。
    用到了两个重要的库:Dlib库和OpenCv库。

2 环境配置

    我的环境配置是:Anaconda3+Spyder,对应的Python版本是Python3.6。环境配置的步骤如下。

2.1 下载和安装Anaconda

https://mirrors.tuna.tsinghua.edu.cn/help/anaconda/


    Anaconda 安装步骤

                       

opencv微表情识别 opencv人脸表情识别_opencv微表情识别


图 2.1 Anaconda 的安装 (1)

                       

opencv微表情识别 opencv人脸表情识别_python_02


图 2.2 Anaconda 的安装 (2)( 记得勾选添加到系统变量中 )

                       

opencv微表情识别 opencv人脸表情识别_人脸识别_03


                       

opencv微表情识别 opencv人脸表情识别_opencv微表情识别_04

图 2.2 Anaconda 的安装 (3)(4)


    

    安装完成之后在你的开始菜单里面,或者安装目录下找到 Anaconda Promopt,是 Anaconda 的终端,类似于命令提示符 CMD,使用Pip 安装工具包时需要在此终端下进行。另外,Anaconda自带了一个Python的编辑器——Spyder,Spyder的界面(图2.6所示)和MATLAB很像,是一个不错的开发工具,推荐使用。

                              

opencv微表情识别 opencv人脸表情识别_opencv微表情识别_05

图 2.5 Anaconda Prompt


                

opencv微表情识别 opencv人脸表情识别_OpenCV_06

图 2.6 Anaconda – Spyder编辑器


    
2.2 安装OpenCv库

    打开Anaconda Promopt ,在命令提示行输入:pip install OpenCv-python,直接进行安装。

    若安装不成功,可根据提示的错误信息,找到安装包的版本信息,自己下载whl文件安装。以本机要安装的OpenCv-python 3.4.3.18安装包为例。

    OpenCv-python 3.4.3.18 下载地址:https://pypi.org/project/OpenCv-python/#files,找到对应的安装包 OpenCv_python-3.4.3.18-cp36-cp36m-win_amd64.whl 进行下载。下载后在 Anaconda Prompt 中先利用 ‘cd’ 命令定位到 OpenCv 的 whl 文件所在路径,‘dir’ 命令可以查看当前路径下的文件;然后 pip 安装 OpenCv 的 whl 文件:

     pip install OpenCv_python-3.4.3.18-cp36-cp36m-win_amd64.whl

    安装之后显示 “Successfully installed 。。。” 表示安装成功;然后继续在 Anaconda Prompt 中,输入 ‘python’ 进入 Python,然后输入命令:import cv2 ,测试下OpenCv库是否可以正常使用:

          

opencv微表情识别 opencv人脸表情识别_opencv微表情识别_07


    没有错误信息返回,说明可以在 Python ( Anaconda 环境下) 正常使用 OpenCv库了;

    

2.3 安装Dlib库

    Dlib 下载:https://github.com/coneypo/Dlib_install/blob/master/dlib-19.7.0-cp36-cp36m-win_amd64.whl   在 Anaconda Prompt 中先利用 ‘cd’ 命令定位到 Dlib 的 whl 文件 所在路径,‘dir’ 命令可以查看当前路径下的文件;
  然后 pip 安装 Dlib 的 whl 文件:
     pip install dlib-19.7.0-cp36-cp36m-win_amd64.whl
  安装之后显示 “Successfully installed dlib-19.7.0” 表示安装成功;
然后继续在 Anaconda Prompt 中,输入 ‘python’ 进入 Python,然后输入命令:import dlib,测试下 Dlib 的库是否可以正常使用。

3 实现人脸情绪判别功能

3.1 人脸情绪判别规则

    利用Dlib官方训练好的模型 “shape_predictor_68_face_landmarks.dat” 进行68点标定,shape_predictor_68_face_landmarks.dat 模型文件可在网上下载,下载后需与开发的源码文件放在同一文件夹下,利用OpenCv进行图像化处理,在人脸上画出68个点,并标明序号。

    实现的68个特征点标定功能如下图所示:

                

opencv微表情识别 opencv人脸表情识别_opencv微表情识别_08


    人脸68个特征点分布情况如下表所示。

                        

opencv微表情识别 opencv人脸表情识别_opencv微表情识别_09


    人脸情绪判断规则:

    1) 嘴巴张开距离占面部识别框宽度的比例越大,说明情绪越激动,可能是非常开心,也可能是极度愤怒。

    2) 眉毛上扬,17-21 或者 22-26 号特征点距离面部识别框顶部与识别框高度的比值越小,说明眉毛上扬越厉害,可表示惊讶、开心。眉毛的倾斜角度,开心时眉毛一般是上扬,愤怒时皱眉,同时眉毛下压的比较厉害。

    3) 眯眼睛,人在开怀大笑的时候会不自觉的眯起眼睛,愤怒或者惊讶的时候会瞪大眼睛。

3.2 人脸情绪判别实现步骤

    首先利用cv2中 cv2.VideoCapture(0)打开摄像头,捕捉人脸。然后利用dlib中dlib.get_frontal_face_detector() 识别人脸,利用dlib.shape_predictor(“shape_predictor_68_face_landmarks.dat”) 预测人脸的68点。综合计算部分特征点之间的距离,作为每个表情的判断指标。由于人离摄像头距离的远近,导致人脸识别框的大小不一,故选择距离与识别框的比例作为判断指标。具体的实现步骤如下图所示。

                    

opencv微表情识别 opencv人脸表情识别_人脸识别_10

4 源代码及测试结果

4.1 实际测试结果

实际测试结果:

No Face

        

opencv微表情识别 opencv人脸表情识别_OpenCV_11


 Face-4

happy-nature-amazing

        

opencv微表情识别 opencv人脸表情识别_OpenCV_12


4.2 源代码

参考论坛中的代码,进行了简单修改。代码如下:

# -*- coding: utf-8 -*-
"""
Date: 2018.11.23
Author: heat

"""

#################################################################
##   从视频中识别人脸,并实时标出面部特征点, 简单判断人脸情绪
#################################################################

import cv2                     #  图像处理的库 OpenCv
import dlib                    # 人脸识别的库 dlib
import numpy as np             # 数据处理的库 numpy

# class
class face_emotion():
    
    def __init__(self):
        # 使用特征提取器 get_frontal_face_detector
        self.detector = dlib.get_frontal_face_detector()
        # dlib 的68点模型,使用官方训练好的特征预测器
        self.predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")
        
        # 建cv2摄像头对象,参数0表示打开电脑自带的摄像头,如果换了外部摄像头,则自动切换到外部摄像头
        self.cap = cv2.VideoCapture(0)
        # set(propId, value),设置视频参数,propId设置视频参数, value设置参数值
        self.cap.set(3, 480)
        # 截取 screenshoot 的计数器
        self.cnt = 0
        
    def learning_face(self):
        # 眉毛直线拟合数据缓冲
        line_brow_x = []
        line_brow_y = []
        
        #返回true/false 检查初始化是否成功
        #cap.isOpened() 
        while(self.cap.isOpened()):
            
            # cap.read(),按帧读取视频,ret,frame是其两个返回值
                #  ret,布尔值 true/false,如果读取帧是正确的则返回True,如果文件读取到结尾,它的返回值就为False。
                #  frame,每一帧的图像对象,图像的三维矩阵。
            flag, im_rd = self.cap.read()
            # cv2.waitKey()
            # 参数是1,表示延时1ms切换到下一帧图像,对于视频而言;
            # 参数为0,表示只显示当前帧图像,相当于视频暂停;
            k = cv2.waitKey(1)
            # 取灰度
            img_gray = cv2.cvtColor(im_rd, cv2.COLOR_RGB2GRAY)
            
            # 使用人脸检测器检测每一帧图像中的人脸,并返回人脸数 faces
            faces = self.detector(img_gray, 0)
            
            # 待会要显示在屏幕上的字体
            font = cv2.FONT_HERSHEY_SIMPLEX
            
            # 如果检测到人脸
            if(len(faces) != 0):
                
                # 对每个人脸都标出68个特征点
                for i in range(len(faces)):
                    # enumerate 方法同时返回数据对象的索引和数据,k为索引,d为faces中的对象
                    for k, d in enumerate(faces):
                        # 用红色矩阵框出人脸, 光的三原色Red(0,0,255), Green(0,255,0), Blue(255,0,0)
                        #  rectangle(img, pt1, pt2, color), 其中pt1为矩阵上顶点,pt2为矩阵下顶点
                        cv2.rectangle(im_rd, (d.left(), d.top()), (d.right(), d.bottom()), (0,0,255))
                        # 计算人脸识别框边长
                        self.face_width = d.right() - d.left()
                        
                        # 使用预测器得到68点数据的坐标
                        shape = self.predictor(im_rd, d)
                    
                        # 圆圈显示每个特征点
                        for i in range(68):
                            # circle(img, center, radius, color), 
                                # img,Image where the circle is drawn
                                # center,Center of the circle
                                # radius,Radius of the circle (半径)
                                # color,Circle color
                            cv2.circle(im_rd, (shape.part(i).x, shape.part(i).y), 5, (0,255,0), -1, 8)
                            # putText(img, text, org, fontFace, fontScale, color)
                                 # org :Bottom-left corner of the text string in the image.
                            cv2.putText(im_rd, str(i), (shape.part(i).x, shape.part(i).y), cv2.FONT_HERSHEY_SIMPLEX,
                                        0.5, (255,255,255))
                            
                        # 分析任意 n 点的位置关系来作为表情识别的依据
                        # 嘴中心	66,嘴左角48,嘴右角54
                        mouth_width = (shape.part(54).x - shape.part(48).x) / self.face_width #嘴巴张开程度
                        mouth_height = (shape.part(66).y - shape.part(62).y) / self.face_width #嘴巴张开程度
                        #print("嘴巴宽度与识别框宽度之比:" , mouth_width)
                        #print("嘴巴高度与识别框宽度之比:" , mouth_height)
                        
                        # 通过两个眉毛上的10个特征点,分析挑眉程度和皱眉程度
                        brow_sum = 0 #高度之和
                        frown_sum = 0  #两边眉毛距离之和
                        for j in range(17, 21):
                            brow_sum += (shape.part(j).y - d.top()) + (shape.part(j + 5).y - d.top())
                            frown_sum += shape.part(j + 5).x - shape.part(j).x
                            line_brow_x.append(shape.part(j).x)
                            line_brow_y.append(shape.part(j).y)
                            
                        # self.brow_k, self.brow_d = self.fit_slr(line_brow_x, line_brow_y) # 计算眉毛的倾斜程度
                        tempx = np.array(line_brow_x)
                        tempy = np.array(line_brow_y)
                        z1 = np.polyfit(tempx, tempy, 1)  #拟合成一次直线
                        self.brow_k = -round(z1[0], 3)  # 拟合出曲线的斜率和实际眉毛的倾斜方向是相反的
                        
                        brow_height = (brow_sum / 10) / self.face_width # 眉毛高度占比
                        brow_width = (frown_sum / 5) / self.face_width  # 眉毛距离占比
                        #print("眉毛高度与识别框宽度之比:" , brow_height)
                        #print("眉毛间距与识别框高度之比:" , brow_width)
                        
                        # 眼睛睁开程度
                        eye_sum = (shape.part(41).y - shape.part(37).y + shape.part(40).y - shape.part(38).y + 
                                   shape.part(47).y - shape.part(43).y + shape.part(46).y - shape.part(44).y)
                        eye_hight = (eye_sum / 4) / self.face_width
                        #print("眼睛睁开距离与识别框高度之比:" , eye_hight)
                        
                        # 分情况讨论,判断情绪变化
                        # 张嘴,可能是开心或惊讶,通过眼睛的睁开程度区分
                        if round(mouth_height >= 0.03):
                            if eye_hight >= 0.056:
                                cv2.putText(im_rd, "amazing", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 1,
                                            (0,0,255), 2, 4)
                            else:
                                cv2.putText(im_rd, "happy", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 1,
                                            (0,0,255), 2, 4)
                                
                        # 没有张嘴,可能是正常和生气,通过眉毛区分
                        else:
                            if self.brow_k <= -0.3:
                                cv2.putText(im_rd, "angry", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 1,
                                            (0,0,255), 2, 4)
                            else:
                                cv2.putText(im_rd, "nature", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 1,
                                            (0,0,255), 2, 4)
                # 标出人脸数
                cv2.putText(im_rd, "Face-" + str(len(faces)), (20,50), font, 0.6, (0,0,255), 1, cv2.LINE_AA)
            else:
                # 没有检测到人脸
                cv2.putText(im_rd, "No Face", (20,50), font, 0.6, (0,0,255), 1, cv2.LINE_AA)
            
            # 添加说明
            im_rd = cv2.putText(im_rd, "S: screenshot", (20,450), font, 0.6, (255,0,255), 1, cv2.LINE_AA)
            im_rd = cv2.putText(im_rd, "Q: quit", (20,470), font, 0.6, (255,0,255), 1, cv2.LINE_AA)
            
            # 按下 s 键截图保存
                # waitKey()函数的功能是不断刷新图像,频率时间为delay,单位为ms
            if (cv2.waitKey(1) & 0xFF) == ord('s'):
                self.cnt += 1
                cv2.imwrite("screenshoot" + str(self.cnt) + ".jpg", im_rd)
                
            # 按下 q 键退出
            if (cv2.waitKey(1) & 0xFF) == ord('q'):
                break
            
            # 窗口显示
            cv2.imshow("Face Recognition", im_rd)
            
        # 释放摄像头
        self.cap.release()
        # 删除建立的窗口
        cv2.destroyAllWindows()
        
# main
if __name__ == "__main__":
    my_face = face_emotion()
    my_face.learning_face()

5 参考资料

 python3+dlib实现人脸识别和情绪分析  

   Python 3 利用 Dlib 实现摄像头实时人脸识别
      Python 3 利用 Dlib 实现人脸 68个 特征点的标定
      Windows 下在 Python (Anaconda) 中安装 Dlib 库