更新

  • 2013-6-27 停止人脸识别的研究,具体人脸识别系统可以参见文章《使用Kinect进行人脸识别》《Kinect人脸识别系统---开发历程》。
  • 2013-5-17 在15号程序上,添加图像显示效果,具体效果参见截图。
  • 2013-5-15 添加了新的代码,用于选择训练图像个数。


JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv

    友情提示,要看懂代码前,你得先知道OpenCV的安装和配置,会用C++,用过一些OpenCV函数。基本的图像处理和矩阵知识也是需要的。[gm:我是箫鸣的注释]由于我仅仅是翻译,对于六级才过的我,肯定有一些翻译错的或者不当的地方,所以请大家纠错。

介绍Introduction

从OpenCV2.4开始,加入了新的类FaceRecognizer,我们可以使用它便捷地进行人脸识别实验。本文既介绍代码使用,又介绍算法原理。(他写的源代码,我们可以在OpenCV的opencv\modules\contrib\doc\facerec\src下找到,当然也可以在他的github中找到,如果你想研究源码,自然可以去看看,不复杂)

目前支持的算法有

    Eigenfaces特征脸createEigenFaceRecognizer()

  createFisherFaceRecognizer()

 createLBPHFaceRecognizer()

下面所有的例子中的代码在OpenCV安装目录下的samples/cpp下面都能找到,所有的代码商用或者学习都是免费的。

人脸识别Face Recognition

对人类来说,人脸识别很容易。文献[Tu06]告诉我们,仅仅是才三天的婴儿已经可以区分周围熟悉的人脸了。那么对于计算机来说,到底有多难?其实,迄今为止,我们对于人类自己为何可以区分不同的人所知甚少。是人脸内部特征(眼睛、鼻子、嘴巴)还是外部特征(头型、发际线)对于人类识别更有效?我们怎么分析一张图像,大脑是如何对它编码的?David Hubel和Torsten Wiesel向我们展示,我们的大脑针对不同的场景,如线、边、角或者运动这些局部特征有专门的神经细胞作出反应。显然我们没有把世界看成零散的块块,我们的视觉皮层必须以某种方式把不同的信息来源转化成有用的模式。自动人脸识别就是如何从一幅图像中提取有意义的特征,把它们放入一种有用的表示方式,然后对他们进行一些分类。基于几何特征的人脸的人脸识别可能是最直观的方法来识别人脸。第一个自动人脸识别系统在[Kanade73]中又描述:标记点(眼睛、耳朵、鼻子等的位置)用来构造一个特征向量(点与点之间的距离、角度等)。通过计算测试和训练图像的特征向量的欧氏距离来进行识别。这样的方法对于光照变化很稳健,但也有巨大的缺点:标记点的确定是很复杂的,即使是使用最先进的算法。一些几何特征人脸识别近期工作在文献[Bru92]中有描述。一个22维的特征向量被用在一个大数据库上,单靠几何特征不能提供足够的信息用于人脸识别。

特征脸方法在文献[TP91]中有描述,他描述了一个全面的方法来识别人脸:面部图像是一个点,这个点是从高维图像空间找到它在低维空间的表示,这样分类变得很简单。低维子空间低维是使用主元分析(Principal Component Analysis,PCA)找到的,它可以找拥有最大方差的那个轴。虽然这样的转换是从最佳重建角度考虑的,但是他没有把标签问题考虑进去。[gm:读懂这段需要一些机器学习知识]。想象一个情况,如果变化是基于外部来源,比如光照。轴的最大方差不一定包含任何有鉴别性的信息,因此此时的分类是不可能的。因此,一个使用线性鉴别(Linear Discriminant Analysis,LDA)的特定类投影方法被提出来解决人脸识别问题[BHK97]。其中一个基本的想法就是,使类内方差最小的同时,使类外方差最大。

([Wiskott97]) ,离散傅立叶变换(Discrete Cosinus Transform,DCT)([Messer06]) ,局部二值模式(Local Binary Patterns,LBP)([AHP04])。使用什么方法来提取时域空间的局部特征依旧是一个开放性的研究问题,因为空间信息是潜在有用的信息。

人脸库Face Database

我们先获取一些数据来进行实验吧。我不想在这里做一个幼稚的例子。我们在研究人脸识别,所以我们需要一个真的人脸图像!你可以自己创建自己的数据集,也可以从这里(http://face-rec.org/databases/)下载一个。

AT&T Facedatabase又称ORL人脸数据库,40个人,每人10张照片。照片在不同时间、不同光照、不同表情(睁眼闭眼、笑或者不笑)、不同人脸细节(戴眼镜或者不戴眼镜)下采集。所有的图像都在一个黑暗均匀的背景下采集的,正面竖直人脸(有些有有轻微旋转)。

Yale Facedatabase A  ORL数据库对于初始化测试比较适合,但它是一个简单的数据库,特征脸已经可以达到97%的识别率,所以你使用其他方法很难得到更好的提升。Yale人脸数据库是一个对于初始实验更好的数据库,因为识别问题更复杂。这个数据库包括15个人(14个男人,1个女人),每一个都有11个灰度图像,大小是320*243像素。数据库中有光照变化(中心光照、左侧光照、右侧光照)、表情变化(开心、正常、悲伤、瞌睡、惊讶、眨眼)、眼镜(戴眼镜或者没戴)。

    坏消息是它不可以公开下载,可能因为原来的服务器坏了。但我们可以找到一些镜像(比如)但我不能保证它的完整性。如果你需要自己剪裁和校准图像,可以阅读我的笔记(bytefish.de/blog/fisherfaces)。

Extended Yale Facedatabase B 此数据库包含38个人的2414张图片,并且是剪裁好的。这个数据库重点是测试特征提取是否对光照变化强健,因为图像的表情、遮挡等都没变化。我认为这个数据库太大,不适合这篇文章的实验,我建议使用ORL数据库。

准备数据

我们从网上下了数据,下了我们需要在程序中读取它,我决定使用CSV文件读取它。一个CSV文件包含文件名,紧跟一个标签。


/path/to/image.ext;0

    假设/path/to/image.ext是图像,就像你在windows下的c:/faces/person0/image0.jpg。最后我们给它一个标签0。这个标签类似代表这个人的名字,所以同一个人的照片的标签都一样。我们对下载的ORL数据库进行标识,可以获取到如下结果:


./at/s1/1.pgm;0 ./at/s1/2.pgm;0 ... ./at/s2/1.pgm;1 ./at/s2/2.pgm;1 ... ./at/s40/1.pgm;39 ./at/s40/2.pgm;39


想象我已经把图像解压缩在D:/data/at下面,而CSV文件在D:/data/at.txt。下面你根据自己的情况修改替换即可。一旦你成功建立CSV文件,就可以像这样运行示例程序:

facerec_demo.exe D:/data/at.txt

Creating the CSV File

你不需要手工来创建一个CSV文件,我已经写了一个Python程序来做这事。

[gm:说一个我实现的方法

如果你会cmd命令,或者称DOS命令,那么你打开命令控制台。假设我们的图片放在J:下的Faces文件夹下,可以输入如下语句:

J:\Faces\ORL>dir /b/s *.bmp > at.txt

然后你打开at.txt文件可能看到如下内容(后面的0,1..标签是自己加的):


。。。。
J:\Faces\ORL\s1\1.bmp;0
J:\Faces\ORL\s1\10.bmp;0
J:\Faces\ORL\s1\2.bmp;0
J:\Faces\ORL\s1\3.bmp;0
J:\Faces\ORL\s1\4.bmp;0
J:\Faces\ORL\s1\5.bmp;0
J:\Faces\ORL\s1\6.bmp;0
J:\Faces\ORL\s1\7.bmp;0
J:\Faces\ORL\s1\8.bmp;0
J:\Faces\ORL\s1\9.bmp;0
J:\Faces\ORL\s10\1.bmp;1
J:\Faces\ORL\s10\10.bmp;1
J:\Faces\ORL\s10\2.bmp;1
J:\Faces\ORL\s10\3.bmp;1
J:\Faces\ORL\s10\4.bmp;1
J:\Faces\ORL\s10\5.bmp;1
J:\Faces\ORL\s10\6.bmp;1
。。。。


自然还有c++编程等方法可以做得更好,看这篇文章反响,如果很多人需要,我就把这部分的代码写出来。(遍历多个文件夹,标上标签) ]

特征脸Eigenfaces

我们讲过,图像表示的问题是他的高维问题。二维灰度图像p*q大小,是一个m=qp维的向量空间,所以一个100*100像素大小的图像就是10,000维的图像空间。问题是,是不是所有的维数空间对我们来说都有用?我们可以做一个决定,如果数据有任何差异,我们可以通过寻找主元来知道主要信息。主成分分析(Principal Component Analysis,PCA)是Karl Pearson (1901)独立发表的,而 Harold Hotelling (1933)把一些可能相关的变量转换成一个更小的不相关的子集。想法是,一个高维数据集经常被相关变量表示,因此只有一些的维上数据才是有意义的,包含最多的信息。PCA方法寻找数据中拥有最大方差的方向,被称为主成分。

算法描述Algorithmic Description

令 

JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv_02

  表示一个随机特征,其中 

JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv_03

 .

  1. 计算均值向量 

                             

JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_04


  1. 计算协方差矩阵 S

                                

JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_05


  1. 计算 的特征值
  2. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_06

  3.     和对应的特征向量   
  4. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_07

  5.               
  6. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_08


  7. 对特征值进行递减排序,特征向量和它顺序一致. K个主成分也就是k个最大的特征值对应的特征向量。

x的K个主成份:


JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_components_09

其中

JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_10

  .

PCA基的重构:


JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_11

其中 

JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_12

 .

然后特征脸通过下面的方式进行人脸识别:

  1. 把所有的训练数据投影到PCA子空间
  2. 把待识别图像投影到PCA子空间
  3. 找到训练数据投影后的向量和待识别图像投影后的向量最近的那个。

还有一个问题有待解决。比如我们有400张图片,每张100*100像素大小,那么PCA需要解决协方差矩阵

的求解,而X的大小是10000*400,那么我们会得到10000*10000大小的矩阵,这需要大概0.8GB的内存。解决这个问题不容易,所以我们需要另一个计策。就是转置一下再求,特征向量不变化。文献 [Duda01]中有描述。

[gm:这个PCA还是自己搜着看吧,这里的讲的不清楚,不适合初学者看]

  1. OpenCV中使用特征脸Eigenfaces in OpenCV

    给出示例程序源代码


  2.  修改版[2013-4-26 不使用命令行形式]

  3.  

  4.     我使用了伪彩色图像,所以你可以看到在特征脸中灰度值是如何分布的。你可以看到特征脸不但对人脸特征进行编码,还对这些图像中的光照进行编码。(看第四张图像是左侧的光照,而第五张是右侧的光照)[gm:PCA对光照变化图像识别效果很差,自然有一些改进方法,有后再谈]

  5. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_components_13

    我们已经看到了,我们可以利用低维近似来重构人脸,我们看看对于一个好的重构,需要多少特征脸。我将依次画出10,30,。。310张特征脸时的效果。


  6. 显然10个特征向量[gm:1个特征向量可以变形成一个特征脸,这里特征向量和特征脸概念有些近似]是不够的,50个特征向量可以有效的编码出重要的人脸特征。在ORL数据库中,当使用300个特征向量时,你将获取一个比较好的和重构结果。有定理指出重构需要选择多少特征脸才合适,但它严重依赖于人脸数据库。[gm:也就是没啥讨论意义,针对现实情况做出考虑吧]。文献[Zhao03]是一个好的开始研究起点。

  7. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_14


    Fisherfaces

    主成分分析是一种基于特征脸的方法,找到使数据中最大方差的特征线性组合。这是一个表现数据的强大方法,但它没有考虑类别信息,并且在扔掉主元时,同时许多有鉴别的信息都被扔掉。假设你数据库中的变化主要是光照变化,那么PCA此时几乎失效了。[gm:把光照情况类似的照片认为一样,而不管人脸其他细节]可以看去http://www.bytefish.de/wiki/pca_lda_with_gnu_octave 看下例子。

#include "opencv2/core/core.hpp"#include "opencv2/contrib/contrib.hpp"#include "opencv2/highgui/highgui.hpp"#include <iostream>#include <fstream>#include <sstream>usingnamespace cv;usingnamespace std;staticvoid read_csv(const string& filename, vector<Mat>& images, vector<int>& labels, char separator =';') {
    std::ifstream file(filename.c_str(), ifstream::in);
    if (!file) {
        string error_message ="No valid input file was given, please check the given filename.";
        CV_Error(CV_StsBadArg, error_message);
    }
    string line, path, classlabel;
    while (getline(file, line)) {
        stringstream liness(line);
        getline(liness, path, separator);
        getline(liness, classlabel);
        if(!path.empty()&&!classlabel.empty()) {
            images.push_back(imread(path, 0));
            labels.push_back(atoi(classlabel.c_str()));
        }
    }
}

int main(int argc, constchar*argv[]) {
    if (argc !=2) {
        cout <<"usage: "<< argv[0]<<" <csv.ext>"<< endl;
        exit(1);
    }
    string fn_csv = string(argv[1]);
    vector<Mat> images;
    vector<int> labels;
    try {
        read_csv(fn_csv, images, labels);
    } catch (cv::Exception& e) {
        cerr <<"Error opening file "<< fn_csv <<". Reason: "<< e.msg << endl;
        // nothing more we can do
        exit(1);
    }
    if(images.size()<=1) {
        string error_message ="This demo needs at least 2 images to work. Please add more images to your data set!";
        CV_Error(CV_StsError, error_message);
    }
    int height = images[0].rows;
    Mat testSample = images[images.size() -1];
    int testLabel = labels[labels.size() -1];
    images.pop_back();
    labels.pop_back();
    // TLBPHFaceRecognizer 使用了扩展的LBP
    // 在其他的算子中他可能很容易被扩展
    // 下面是默认参数
    //      radius = 1
    //      neighbors = 8
    //      grid_x = 8
    //      grid_y = 8
    //
    // 如果你要创建 LBPH FaceRecognizer 半径是2,16个邻域
    //      cv::createLBPHFaceRecognizer(2, 16);
    //
    // 如果你需要一个阈值,并且使用默认参数:
    //      cv::createLBPHFaceRecognizer(1,8,8,8,123.0)
    //
    Ptr<FaceRecognizer> model = createLBPHFaceRecognizer();
    model->train(images, labels);
    int predictedLabel = model->predict(testSample);
    //      int predictedLabel = -1;
    //      double confidence = 0.0;
    //      model->predict(testSample, predictedLabel, confidence);
    //
    string result_message = format("Predicted class = %d / Actual class = %d.", predictedLabel, testLabel);
    cout << result_message << endl;
    // 有时你需要设置或者获取内部数据模型,
    // 他不能被暴露在 cv::FaceRecognizer类中.
    //
    // 首先我们对FaceRecognizer的阈值设置到0.0,而不是重写训练模型
    // 当你重新估计模型时很重要 
    //
    model->set("threshold",0.0);
    predictedLabel = model->predict(testSample);
    cout <<"Predicted class = "<< predictedLabel << endl;
    // 由于确保高效率,LBP图没有被存储在模型里面。D
    cout <<"Model Information:"<< endl;
    string model_info = format("\tLBPH(radius=%i, neighbors=%i, grid_x=%i, grid_y=%i, threshold=%.2f)",
            model->getInt("radius"),
            model->getInt("neighbors"),
            model->getInt("grid_x"),
            model->getInt("grid_y"),
            model->getDouble("threshold"));
    cout << model_info << endl;
    // 我们可以获取样本的直方图:
    vector<Mat> histograms = model->getMatVector("histograms");
    // 我需要现实它吗? 或许它的长度才是我们感兴趣的:
    cout <<"Size of the histograms: "<< histograms[0].total()<< endl;
    return0;
}
  1.  Sir R. A. Fisher发明。在他1936年的文献中,他成功对花进行了分类:The use of multiple measurements in taxonomic problems [Fisher36]。为了找到一种特征组合方式,达到最大的类间离散度和最小的类内离散度。这个想法很简单:在低维表示下,相同的类应该紧紧的聚在一起,而不同的类别尽量距离越远。 这也被Belhumeur, Hespanha 和 Kriegman所认同,所以他们把鉴别分析引入到人脸识别问题中[BHK97]
  2. 算法描述Algorithmic Description

    令x是一个来自c个类中的随机向量,

  3. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_components_15

  4. 散度矩阵  
  5. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_16

  6.  和S_{W}如下计算:
  7. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_17

  8. , 其中 
  9. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_18

  10.   是全部数据的均值     
  11. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_19

  12. :
  13. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_components_20

  14.   是某个类的均值
  15. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_21

  16.   :
  17. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_22

  18. Fisher的分类算法可以看出一个投影矩阵
  19. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_23

  20.   , 使得类的可分性最大:
  21. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_24

    接下来 [BHK97], 一个解决这个普通特征值优化问题的方法被提出:

  22. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_25

             还有一个问题未解决, Sw的排列最多只有 (N-c),  N 个样本和c个类别。在模式识别中,样本数据个数N的大小一般小于输入数据的维数。 [gm:比如说之前的图片,N=400,而10000就是数据维数]那么,散度矩阵Sw就是奇异的(可以看文献[RJ91])。在文献[BHK97]中,使用PCA把数据投影到(N-c)维的子空间,然后再使用线性鉴别分析,因为Sw不是奇异矩阵了(可逆矩阵)。

    然后优化问题可以写成:

  23. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_26

     

    投影矩阵W,可以把样本投影到(c-1)维的空间上,可以表示为

  24. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_27


    Fisherfaces in OpenCV

  25. #include "opencv2/core/core.hpp"#include "opencv2/contrib/contrib.hpp"#include "opencv2/highgui/highgui.hpp"#include <iostream>#include <fstream>#include <sstream>using namespace cv;using namespace std; static Mat norm_0_255(InputArray _src) { Mat src = _src.getMat(); // 创建和返回归一化的图像: Mat dst; switch(src.channels()) { case1: cv::normalize(_src, dst, 0,255, NORM_MINMAX, CV_8UC1); break; case3: cv::normalize(_src, dst, 0,255, NORM_MINMAX, CV_8UC3); break; default: src.copyTo(dst); break; } return dst; } staticvoid read_csv(const string& filename, vector<Mat>& images, vector<int>& labels, char separator =';') { std::ifstream file(filename.c_str(), ifstream::in); if (!file) { string error_message ="No valid input file was given, please check the given filename."; CV_Error(CV_StsBadArg, error_message); } string line, path, classlabel; while (getline(file, line)) { stringstream liness(line); getline(liness, path, separator); getline(liness, classlabel); if(!path.empty()&&!classlabel.empty()) { images.push_back(imread(path, 0)); labels.push_back(atoi(classlabel.c_str())); } } } int main(int argc, constchar*argv[]) { // 判断输入命令是否有效,输出用法 // 如果没有输入参数. if (argc <2) { cout <<"usage: "<< argv[0]<<" <csv.ext> <output_folder> "<< endl; exit(1); } string output_folder; if (argc ==3) { output_folder = string(argv[2]); } // 获取CSV文件的路径. string fn_csv = string(argv[1]); // 这些容器存放图片和标签. vector<Mat> images; vector<int> labels; // 载入数据.如果不合理,会出错 // 输入文件名fn_csv已经有了. try { read_csv(fn_csv, images, labels); } catch (cv::Exception& e) { cerr <<"Error opening file "<< fn_csv <<". Reason: "<< e.msg << endl; // 什么也不能做了 exit(1); } // 如果没有足够图像就退出掉. if(images.size()<=1) { string error_message ="This demo needs at least 2 images to work. Please add more images to your data set!"; CV_Error(CV_StsError, error_message); } int height = images[0].rows; Mat testSample = images[images.size() -1]; int testLabel = labels[labels.size() -1]; images.pop_back(); labels.pop_back(); // 如果想保存10个fisherfaces // cv::createFisherFaceRecognizer(10); // // 如果要以123.0作为置信阈值 // cv::createFisherFaceRecognizer(0, 123.0); // Ptr<FaceRecognizer> model = createFisherFaceRecognizer(); model->train(images, labels); int predictedLabel = model->predict(testSample); // // model->predict(testSample, predictedLabel, confidence); // string result_message = format("Predicted class = %d / Actual class = %d.", predictedLabel, testLabel); cout << result_message << endl; Mat eigenvalues = model->getMat("eigenvalues"); Mat W = model->getMat("eigenvectors"); Mat mean = model->getMat("mean"); if(argc==2) { imshow("mean", norm_0_255(mean.reshape(1, images[0].rows))); } else { imwrite(format("%s/mean.png", output_folder.c_str()), norm_0_255(mean.reshape(1, images[0].rows))); } //显示还是保存, 最多16 Fisherfaces: for (int i =0; i < min(16, W.cols); i++) { string msg = format("Eigenvalue #%d = %.5f", i, eigenvalues.at<double>(i)); cout << msg << endl; Mat ev = W.col(i).clone(); Mat grayscale = norm_0_255(ev.reshape(1, height)); // 使用Bone伪彩色图像来显示. Mat cgrayscale; applyColorMap(grayscale, cgrayscale, COLORMAP_BONE); if(argc==2) { imshow(format("fisherface_%d", i), cgrayscale); } else { imwrite(format("%s/fisherface_%d.png", output_folder.c_str(), i), norm_0_255(cgrayscale)); } } for(int num_component =0; num_component < min(16, W.cols); num_component++) { Mat ev = W.col(num_component); Mat projection = subspaceProject(ev, mean, images[0].reshape(1,1)); Mat reconstruction = subspaceReconstruct(ev, mean, projection); reconstruction = norm_0_255(reconstruction.reshape(1, images[0].rows)); if(argc==2) { imshow(format("fisherface_reconstruction_%d", num_component), reconstruction); } else { imwrite(format("%s/fisherface_reconstruction_%d.png", output_folder.c_str(), num_component), reconstruction); } } if(argc==2) { waitKey(0); } return0; }

  26. 这个例子中,我使用Yale A人脸数据库,仅仅因为显示更好些。每一个Fisherface都和原始图像有同样长度,因此它可以被显示成图像。下面显示了16张Fisherfaces图像。

  27. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_28

        Fisherfaces方法学习一个正对标签的转换矩阵,所依它不会如特征脸那样那么注重光照。鉴别分析是寻找可以区分人的面部特征。需要说明的是,Fisherfaces的性能也很依赖于输入数据。实际上,如果你对光照好的图片上学习Fisherfaces,而想对不好的光照图片进行识别,那么他可能会找到错误的主元,因为在不好光照图片上,这些特征不优越。这似乎是符合逻辑的,因为这个方法没有机会去学习光照。[gm:那么采集图像时就要考虑光照变化,训练时考虑所有光照情况,数据库multi-pie就考虑很多种光照]

        Fisherfaces允许对投影图像进行重建,就行特征脸一样。但是由于我们仅仅使用这些特征来区分不同的类别,因此你无法期待对原图像有一个好的重建效果。[gm:也就是特征脸把每个图片看成一个个体,重建时效果也有保证,而Fisherfaces把一个人的照片看成一个整体,那么重建时重建的效果则不是很好]。对于Fisherfaces方法我们将把样本图像逐个投影到Fisherfaces上。因此你可以获得一个好的可视效果,每个Fisherfaces特征可以被描述为

  28. for(int num_component =0; num_component < min(16, W.cols); num_component++) { Mat ev = W.col(num_component); Mat projection = subspaceProject(ev, mean, images[0].reshape(1,1)); Mat reconstruction = subspaceReconstruct(ev, mean, projection); reconstruction = norm_0_255(reconstruction.reshape(1, images[0].rows)); if(argc==2) { imshow(format("fisherface_reconstruction_%d", num_component), reconstruction); } else { imwrite(format("%s/fisherface_reconstruction_%d.png", output_folder.c_str(), num_component), reconstruction); } }

  29. 对于人类眼睛来说,差异比较微妙,但你还是可以看到一些差异的。

  30. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_29

    (31)

    局部二值模式直方图Local Binary Patterns Histograms

    Eigenfaces和Fisherfaces使用整体方法来进行人脸识别[gm:直接使用所有的像素]。你把你的数据当作图像空间的高维向量。我们都知道高维数据是糟糕的,所以一个低维子空间被确定,对于信息保存可能很好。Eigenfaces是最大化总的散度,这样可能导致,当方差由外部条件产生时,最大方差的主成分不适合用来分类。所以为使用一些鉴别分析,我们使用了LDA方法来优化。Fisherfaces方法可以很好的运作,至少在我们假设的模型的有限情况下。

        现实生活是不完美的。你无法保证在你的图像中光照条件是完美的,或者说1个人的10张照片。所以,如果每人仅仅只有一张照片呢?我们的子空间的协方差估计方法可能完全错误,所以识别也可能错误。是否记得Eigenfaces在AT&T数据库上达到了96%的识别率?对于这样有效的估计,我们需要多少张训练图像呢?下图是Eigenfaces和Fisherfaces方法在AT&T数据库上的首选识别率,这是一个简单的数据库:

  31. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_30

     https://github.com/bytefish/facerec。这不是一个刊物,所以我不会用高深的数学分析来证明这个图像。 当遇到小的训练数据集时,可以看一下文献[KM01],了解二种方法的细节分析。

        一些研究专注于图像局部特征的提取。主意是我们不把整个图像看成一个高维向量,仅仅用局部特征来描述一个物体。通过这种方式提取特征,你将获得一个低维隐式。一个好主意!但是你很快发现这种图像表示方法不仅仅遭受光照变化。你想想图像中的尺度变化、形变、旋转—我们的局部表示方式起码对这些情况比较稳健。正如SIFT,LBP方法在2D纹理分析中举足轻重。LBP的基本思想是对图像的像素和它局部周围像素进行对比后的结果进行求和。把这个像素作为中心,对相邻像素进行阈值比较。如果中心像素的亮度大于等于他的相邻像素,把他标记为1,否则标记为0。你会用二进制数字来表示每个像素,比如11001111。因此,由于周围相邻8个像素,你最终可能获取2^8个可能组合,被称为局部二值模式,有时被称为LBP码。第一个在文献中描述的LBP算子实际使用的是3*3的邻域。

  32. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv_31

    算法描述Algorithmic Description

    一个更加正式的LBP操作可以被定义为

  33. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_32

     

  34. 其中
  35. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv_33

  36.  是中心像素,亮度是
  37. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_components_34

  38.  ;而 
  39. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_人脸识别_35

  40. 则是相邻像素的亮度。s是一个符号函数:
  41.  

  42. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv_36

    这种描述方法使得你可以很好的捕捉到图像中的细节。实际上,研究者们可以用它在纹理分类上得到最先进的水平。正如刚才描述的方法被提出后,固定的近邻区域对于尺度变化的编码失效。所以,使用一个变量的扩展方法,在文献[AHP04]中有描述。主意是使用可变半径的圆对近邻像素进行编码,这样可以捕捉到如下的近邻:

  43. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_components_37

  44. 对一个给定的点
  45. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv_38

  46.    ,他的近邻点 
  47. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_39

  48.  可以由如下计算:
  49. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_40

    其中,R是圆的半径,而P是样本点的个数。

    这个操作是对原始LBP算子的扩展,所以有时被称为扩展LBP(又称为圆形LBP)。如果一个在圆上的点不在图像坐标上,我们使用他的内插点。计算机科学有一堆聪明的插值方法,而OpenCV使用双线性插值。

  50. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_41

    LBP算子,对于灰度的单调变化很稳健。我们可以看到手工改变后的图像的LBP图像(你可以看到LBP图像是什么样子的!)

  51. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv_42

     

    那么剩下来的就是如何合并空间信息用于人脸识别模型。Ahonenet. Al在文献 [AHP04]中提出表示方法,对LBP图像成m个块,每个块提取直方图。通过连接局部特直方图(而不是合并)然后就能得到空间增强的特征向量。这些直方图被称为局部二值模式直方图。

    OpenCV中的局部二值模式直方图Local Binary Patterns Histograms in OpenCV


  52. 总结Conclusion

    你已经学会如何在真实应用下,使用新的FaceRecognizer类。读完算法,可能到你进行实验的时候了,使用它们,改进它们,让OpenCV社区参与其中!

    人脸对齐Aligning Face Images

    对于图像数据的对其很重要,特别遇到情感检测这类任务,你需要越多的细节越好。相信我,你不会要自己动手做吧。我给你提供了一个Python代码。

    #  CropFace(image, eye_left, eye_right, offset_pct, dest_sz)
    # eye_left is the position of the left eye
    # eye_right is the position of the right eye
    # offset_pct is the percent of the image you want to keep next to the eyes (horizontal, vertical direction)
    # dest_sz is the size of the output image
    #
    importsys,math,Image
    
    defDistance(p1,p2):
      dx = p2[0]- p1[0]
      dy = p2[1]- p1[1]
      return math.sqrt(dx*dx+dy*dy)
    
    defScaleRotateTranslate(image, angle, center =None, new_center =None, scale =None, resample=Image.BICUBIC):
      if (scale isNone)and (center isNone):
        return image.rotate(angle=angle, resample=resample)
      nx,ny = x,y = center
      sx=sy=1.0
      if new_center:
        (nx,ny) = new_center
      if scale:
        (sx,sy) = (scale, scale)
      cosine = math.cos(angle)
      sine = math.sin(angle)
      a = cosine/sx
      b = sine/sx
      c = x-nx*a-ny*b
      d =-sine/sy
      e = cosine/sy
      f = y-nx*d-ny*e
      return image.transform(image.size, Image.AFFINE, (a,b,c,d,e,f), resample=resample)
    
    defCropFace(image, eye_left=(0,0), eye_right=(0,0), offset_pct=(0.2,0.2), dest_sz = (70,70)):
      # calculate offsets in original image
      offset_h = math.floor(float(offset_pct[0])*dest_sz[0])
      offset_v = math.floor(float(offset_pct[1])*dest_sz[1])
      # get the direction
      eye_direction = (eye_right[0]- eye_left[0], eye_right[1]- eye_left[1])
      # calc rotation angle in radians
      rotation =-math.atan2(float(eye_direction[1]),float(eye_direction[0]))
      # distance between them
      dist = Distance(eye_left, eye_right)
      # calculate the reference eye-width
      reference = dest_sz[0]-2.0*offset_h
      # scale factor
      scale =float(dist)/float(reference)
      # rotate original around the left eye
      image = ScaleRotateTranslate(image, center=eye_left, angle=rotation)
      # crop the rotated image
      crop_xy = (eye_left[0]- scale*offset_h, eye_left[1]- scale*offset_v)
      crop_size = (dest_sz[0]*scale, dest_sz[1]*scale)
      image = image.crop((int(crop_xy[0]),int(crop_xy[1]),int(crop_xy[0]+crop_size[0]),int(crop_xy[1]+crop_size[1])))
      # resize it
      image = image.resize(dest_sz, Image.ANTIALIAS)
      return image
    
    if __name__ =="__main__":
      image =  Image.open("arnie.jpg")
      CropFace(image, eye_left=(252,364), eye_right=(420,366), offset_pct=(0.1,0.1), dest_sz=(200,200)).save("arnie_10_10_200_200.jpg")
      CropFace(image, eye_left=(252,364), eye_right=(420,366), offset_pct=(0.2,0.2), dest_sz=(200,200)).save("arnie_20_20_200_200.jpg")
      CropFace(image, eye_left=(252,364), eye_right=(420,366), offset_pct=(0.3,0.3), dest_sz=(200,200)).save("arnie_30_30_200_200.jpg")
      CropFace(image, eye_left=(252,364), eye_right=(420,366), offset_pct=(0.2,0.2)).save("arnie_20_20_70_70.jpg")

     this photo of Arnold Schwarzenegger,人眼坐标是(252,364)和(420,366)。参数是水平偏移、垂直偏移和你缩放后的图像大小。[gm:我建议使用最小的那张图片]

  53. Configuration

    Cropped, Scaled, Rotated Face

    0.1 (10%), 0.1 (10%), (200,200)


    JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_43

    0.2 (20%), 0.2 (20%), (200,200)


    JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_44

    0.3 (30%), 0.3 (30%), (200,200)


    JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_string_45

    0.2 (20%), 0.2 (20%), (70,70)


    JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_csv_46

  54. CSV for the AT&T Facedatabase


  55. 额外的代码

      C#版的人脸识别(只实现了特征脸)

EMGU Multiple Face Recognition using PCA and Parallel Optimisatioin:

http://www.codeproject.com/Articles/261550/EMGU-Multiple-Face-Recognition-using-PCA-and-Paral?msg=4377858

  1. 自由选择训练图像数量(C++)


  2. 添加图像显示效果,更复杂!(C++)

  3. 程序中用到了一个Arrow.jpg的箭头图像,我用的是百度到的“箭头”图片:
  4. http://picm.photophoto.cn/015/037/010/0370100223.jpg  下载将其大小调整,高度修改为112,然后图像左右旋转下,名字改成"Arrow",放到D盘下。最终程序运行效果是:
  5. JAVA使用opencv将人脸信息写入图片 利用opencv实现人脸识别步骤_transactions_47

1. #include "stdafx.h"#include <opencv2/opencv.hpp>#include <iostream>#include <fstream>#include <sstream>int g_howManyPhotoForTraining	=	5;//每个人取出8张作为训练
int g_photoNumberOfOnePerson	=	10;
//ORL数据库每个人10张图像
using namespace cv;
using namespace std;
Mat arrowImage;
static Mat norm_0_255(InputArray _src) {
	Mat src = _src.getMat();
	// 创建和返回一个归一化后的图像矩阵:
	Mat dst;
	switch(src.channels()) {
case1:
		cv::normalize(_src, dst, 0,255, NORM_MINMAX, CV_8UC1);
		break;
case3:
		cv::normalize(_src, dst, 0,255, NORM_MINMAX, CV_8UC3);
		break;
	default:
		src.copyTo(dst);
		break;
	}
	return dst;
}
//使用CSV文件去读图像和标签,主要使用stringstream和getline方法
static void read_csv(const string& filename, vector<Mat>& images, vector<int>& labels, char separator =';') {
	std::ifstream file(filename.c_str(), ifstream::in);
	if (!file) {
		string error_message ="No valid input file was given, please check the given filename.";
		CV_Error(CV_StsBadArg, error_message);
	}
	string line, path, classlabel;
	while (getline(file, line)) {
		stringstream liness(line);
		getline(liness, path, separator);
		getline(liness, classlabel);
		if(!path.empty()&&!classlabel.empty()) {
			images.push_back(imread(path, CV_LOAD_IMAGE_GRAYSCALE));
			labels.push_back(atoi(classlabel.c_str()));
		}
	}
}
void NewPredict(Mat src,vector<double>& distVector,int& minClass,\
				vector<int>& trainLabels,Mat& _eigenvectors,\
				vector<Mat>& _projections,Mat& _mean,vector<Mat>& train_images)
{

	Mat q = subspaceProject(_eigenvectors, _mean, src.reshape(1,1));
	double minDist = DBL_MAX;
	Mat displayImage;
	minClass = -1;
	for(int sampleIdx = 0; sampleIdx < _projections.size(); sampleIdx++) {
		double dist = norm(_projections[sampleIdx], q, NORM_L2);
		distVector.push_back(dist);
		if((dist < minDist) && (dist < DBL_MAX)) {
			minDist = dist;
			minClass = trainLabels[sampleIdx];
			displayImage.release();
			displayImage.push_back(Mat(src.t()));
			displayImage.push_back(Mat(arrowImage.t()));
			displayImage.push_back(Mat(train_images[sampleIdx].t()));
			cout<<"    当前最小距离 = "<<minDist<<"  最接近第 "<<sampleIdx<<" 张图像"<<"(第"<<minClass<<"类)"<<endl;
			resize(displayImage,displayImage,displayImage.size()*2);//放大显示
			imshow("Prediction Reuslt",displayImage.t());
			waitKey(0);
		}
	}
}
int main() {
	string output_folder;
	arrowImage = imread("D:\\Arrow.jpg",CV_LOAD_IMAGE_GRAYSCALE);
	output_folder = string("D:\\");
	string fn_csv = string("D:\\Faces\\at.txt");
	vector<Mat> allImages,train_images,test_images;
	vector<int> allLabels,train_labels,test_labels;
	try {
		read_csv(fn_csv, allImages, allLabels);
	} catch (cv::Exception& e) {
		cerr <<"Error opening file "<< fn_csv <<". Reason: "<< e.msg << endl;
		// 文件有问题,我们啥也做不了了,退出了
		exit(1);
	}
	if(allImages.size()<=1) {
		string error_message ="This demo needs at least 2 images to work. Please add more images to your data set!";
		CV_Error(CV_StsError, error_message);
	}
	int photoNumber = allImages.size();
	for(int i=0 ; i<photoNumber ; i++)
	{
		if((i%g_photoNumberOfOnePerson)<g_howManyPhotoForTraining)
		{
			train_images.push_back(allImages[i]);
			train_labels.push_back(allLabels[i]);
		}
		else
		{
			test_images.push_back(allImages[i]);
			test_labels.push_back(allLabels[i]);
		}
	}
	Ptr<FaceRecognizer> model = createEigenFaceRecognizer();
	//可以替换成createFisherFaceRecognizer或者createLBPHFaceRecognizer
	model->train(train_images, train_labels);
	vector<Mat> projections = model->getMatVector("projections");  //投影
	Mat eigenvectors = model->getMat("eigenvectors"); //特征值
	Mat mean = model->getMat("mean");  //均值
	int iCorrectPrediction = 0;
	int predictedLabel;
	int testPhotoNumber = test_images.size();
	double confidence;
	vector<double> distVector;
	for(int i=0;i<testPhotoNumber;i++)
	{
		cout<<"#第 "<<i+1<<" 张图像, 类别是 "<<test_labels[i] <<" ,开始预测:-------"<<endl;
		//model->predict(test_images[i],predictedLabel,confidence);
		distVector.clear();
		NewPredict(test_images[i],distVector,predictedLabel,train_labels,\
				eigenvectors,projections,mean,train_images);
		cout<<"#第"<<i+1<< "  张图像,预测结束。最终预测结果是:第"<<predictedLabel<<"类。";
		if(predictedLabel == test_labels[i])
		{
			cout<<"预测正确!"<<endl;
			iCorrectPrediction++;
		}
		else
		{
			cout<<"预测失败!"<<endl;
		}
		cout<<"-------------------------------------------------------------"<<endl;

	}
	string result_message = format("一共测试 = %d 张图像, 正确识别 = %d 张图像", testPhotoNumber, iCorrectPrediction);
	cout << result_message << endl;
	cout<<"accuracy = "<<float(iCorrectPrediction)/testPhotoNumber<<endl;

	return 0 ;
}
2.


  1.