10.29 实验结果

我 们 在 Multi-PIE 数 据 集[7] 、SurveillanceCameras 人脸数据集[8] 、Multiple Biometric GrandChallenge 数据集[9]以及 Chock Point 数据集[10]上做了大量的实验来验证我们方法的适用性。我们使用了免费公开的基于主动形状模型(ASM)的 C++软件库、STASM [26] ,自动地去检测特征点位置 ; 然后手动纠正那些不正确的位置。注意,所检测到的位置只在训练过程中才需要。在测试过程中,只需要眼睛的位置对齐人脸。

在 Multi-PIE 数据集上的实验
Multi-PIE 数据集[7]包含了在 4 个阶段不同光照和视角下的 337 个人的人脸图像。在我们的实验中,使用四种标记的带有不同姿态(pose04_1,05_0,以及 13_0)的图像进行测试。正面姿态的高分辨率图像用于训练。训练集中的训练图像分辨率为36×30,测试图像的分辨率为 18×15 的(采样因子为 2)。

在识别实验中,来自于一种光照条件下的的图像组成训练集,另外一种光照条件下的的图像组成测试集。在我们的实验中,使用5种不同的光照条件;针对不同的光照条件反复进行实验 ; 识别性能以不同光照条件下的秩 -1 识别性能显示。

50 个随机选择的类别用于训练,剩下的类别用于测试。用于训练和测试的类别之间没有重叠。在全部的实验中,λ 的值被设置为了 0.9,MDS 的输出维度 d 被设置为了 100。为了强调所提出方法的性能,我们固定核映射 (x) 为 x,当然也可以使用其他的映射。

semantickitti数据集如何测试 multi-pie数据集_c/c++


识别率性能:不同姿态,光照,分辨率

我们的实验将从匹配不同姿态、光照以及分辨率的图片开始。

在表 1 中,我们也列出了所提出方法与基于MDS 的方法[5]和立体匹配算法[6]之间的比较结果。实验结果是通过运行在通信作者网站[37] 、文献 [38]上公布的代码获得的。在表1中,HR-LR(参考基准)显示的是文献 [5] 中使用 SIFT 描述子但不学习转换矩阵。对于立体基线方法[6] ,在计算立体匹配代价前,先用双线性插值方法应用于 LR 测试图像,使得其分辨率与 HR 训练图像一致。当测试图像和训练图像拥有相同姿态和分辨率时,此时的识别性能(HR-HR)将达到 93.55%。所提出的方法不仅性能大大优于基线方法[5-6] , 其性能也非常接近 HR-HR的性能。对于基于参考的方法,参考图像的数量被设置为 50。基于参考方法的性能略差于在第 3 部分中提出的方法,但它的效果仍然要比基线方法好。虽然 LSML 算法的性能要比我们的基于参考的方法好,LSML 在训练和测试时都要求几个目标点(比如眼角、鼻子和嘴巴等)的位置,特别在对于低分辨率的、非正面姿态图像的情况

性能比较:度量学习方法
我们还评估了三个较先进的基于度量学习 / 分类器的算法:① 已被成功用于面部图片识别[39]的距离度量学习方法,如大间隔最近邻(LMNN) [32] 。我们采用不同的参数(最近邻的个数、最大迭代次数)配置进行实验。表 1 显示了最小,最大以及平均的秩 -1 识别率。② 从基于统计推断角度的等价约束学习度量准则的大尺度度量学习方法 (LSML) [33] 。M v =1 的情况表示度量标准是从相似对的 Mahalanobis距离学习得到的。③ 整合了人脸不同区域的描述子的成对多度量学习(PMML)方法[34] 。表 1 显示了由作者主页中公布的代码进行实验产生的实验结果。除了在一种姿态下所提方法表现略差外,其余情况所提方法均要优于上述三种方法。

性能比较:跨模态与字典学习
最近,跨领域图像合成与识别方法已在许多应用中表现出很好的性能。跨领域识别算法能够解决不同领域中的识别 / 分类任务。我们对文献 [30-31,35-36] 中的方法进行了评估。算法[30-31]联合解决耦合字典及公共特征空间学习问题以合成跨领域图像并执行识别任务。广义的多视角分析方法[35]通过在不同的特征空间中解决一个联合的、松弛的二次约束的二次规划问题 (QCQP) 得到一个单一的线性子空间。文献 [36] 中的算法通过建立对偶的偏微分模型来解决跨姿态的人脸识别问题。我们使用作者主页中的源代码,并通过设置不同参数来评价各种算法。表 1 中列出了各种算法最好的实验结果。由表 1 可看出,在所有的姿态下,所提方法都能得到最好的识别性能。

性能比较:超分辨率方法

匹配一个 LR 测试图片与 HR 训练图片的最一般的方法,就是在匹配进行前对 LR 测试图像使用超分辨率。我们将所提方法与两个具有代表性的 SR技术、SR1 [40] 以及 SR2 [41] 进行了比较。在 SR1 中,核脊回归方法被用于学习从 LR 图像到 HR 图像的映射,而在 SR2 中,两个不同的字典被用于训练LR 和 HR 图像,同时 LR 图像的稀疏表示被用于获得对应的 HR 图像。实验中,我们采用作者主页上的源代码来产生实验结果。从图 5 中可以观察到,所提出的方法显著优于所有用来比较的方法

semantickitti数据集如何测试 multi-pie数据集_基线_02


不同分辨率测试集上的实验结果

此实验中,我们分析了所提算法在测试集分辨率不同情况下的性能。我们将训练图像的分辨率保持在 36×30,同时改变测试图像的分辨率。我们使用了三个不同的测试分辨率,15×12,12×10 以及10×9。实验中采用了姿态 05_0 的 LR 测试图像。所提出的方法和基于 MDS 的方法[5]的秩 -1识别性能如图 6 所示。可以看出,在所有情况下,所提出的方法的性能都要明显优于所比较的方法。

semantickitti数据集如何测试 multi-pie数据集_数据集_03


基于参考的方法的优点

我们通过改变参考图像的数量来研究所提出的基于参考的方法的识别性能和计算优势。

表 2 显示了基于参考的方法在采用不同数量的参考图像时的秩 -1 识别性能及运行时间。本实验是在Muliti-PIE 数据上进行的,采用与 pose04_1 数据库上一样的实验设置来测试。对于一个待测图像,采用基于参考的方法将类似的训练图片返回后,测试图片和前 10 幅相同的训练图片之间的立体匹配的花费也被计算出来,这显著提高了秩 -1 识别的准确性。

semantickitti数据集如何测试 multi-pie数据集_数据集_04


在监视相机数据库中的实验

现在,我们用从检测相机数据库[8]中采集得到的真实环境下的数据对我们所提出的方法进行评估。该数据库包含了在不受控制的环境中,使用 5个不同的视频监控摄像机所拍摄的 130 名受试者的图像,而其中的训练图像都是由高品质的相机拍摄得到的。我们使用与文献 [5] 中同样的实验配置进行实验,使用的所有图像均是由这 5 个监视相机采集获得,因此共有 650 幅图像。