Software Engineering and Applications
Vol. 12  No. 04 ( 2023 ), Article ID: 70813 , 11 pages
10.12677/SEA.2023.124059

深度人脸识别方法综述

王海勇,潘海涛*

南京邮电大学计算机学院,江苏 南京

收稿日期:2023年6月3日;录用日期:2023年8月9日;发布日期:2023年8月17日

摘要

深度人脸识别通过大规模数据集训练卷积神经网络获取更鲁棒的人脸表示,极大的提升了人脸识别性能。文中总结了深度人脸识别方法的发展脉络,首先根据卷积神经网络的不同发展阶段回顾了现有的深度人脸识别方法,其次对基于欧几里得距离以及基于角余弦裕度的损失函数进行了回顾,同时总结了一些针对特定任务的人脸识别方法。然后总结了现有的人脸识别数据集以及人脸识别性能的评价指标,并对主流深度人脸识别方法进行了比较。最后总结了人脸识别当前面临的挑战和未来的发展趋势。

关键词

人脸识别,卷积神经网络,人脸表示,损失函数

A Survey of Deep Face Recognition

Haiyong Wang, Haitao Pan*

College of Computer Science, Nanjing University of Posts and Telecommunications, Nanjing Jiangsu

Received: Jun. 3rd, 2023; accepted: Aug. 9th, 2023; published: Aug. 17th, 2023

ABSTRACT

Deep face recognition greatly improves the performance of face recognition by training convolutional neural networks on large-scale data sets to obtain more robust face representation. This paper summarizes the development of depth face recognition methods. First, the existing depth face recognition methods are reviewed according to the different development stages of convolutional neural networks. Secondly, the loss functions based on Euclidean distance and angular cosine margin are reviewed, and some task-specific face recognition methods are summarized. Then, the existing data sets and the evaluation indicators of face recognition performance are summarized, and the mainstream depth face recognition methods are compared. Finally, the current challenges and future trends of face recognition are summarized.

Keywords:Face Recognition, Convolutional Neural Networks, Face Representation, Loss Function

Copyright © 2023 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

人脸识别在计算机视觉和模式识别领域广受关注,具有很多现实应用,包括身份认证、访问控制、人机交互等。由于人工智能技术的兴起,人脸识别技术取得了重大进展,早期研究兴趣主要集中在受控条件下的人脸识别。现如今的研究重点在于无约束条件下的人脸识别,传统的人脸识别方法无法提取鲁棒的人脸表示,面对光照、姿态变化等无约束场景下的识别性能较差。基于深度学习的人脸识别方法克服了传统手工提取人脸特征的局限性,成为了目前的研究热点。人脸识别也可以看成是一个多分类任务,其将人脸图像投影到特征空间,要求不同身份的人脸特征分布尽可能分散,而相同身份的人脸特征分布尽可能紧凑,所提取的人脸特征必须具有较高的可分辨性,卷积神经网络强大的特征提取能力使其在图像分类、目标检测等计算机视觉领域广受关注,同时也推动了深度人脸识别技术的发展。深度人脸识别过程如图1所示,主要分为三个部分,包括人脸预处理、人脸表征和人脸匹配。人脸预处理主要包括人脸检测和人脸对齐,人脸检测是在一张图像中检测并截取出人脸区域,之后将人脸区域进行人脸对齐,即获取人脸关键点并进行相似性变换,将人脸区域映射回标准人脸。人脸表征是将预处理完成后的人脸图像输入深度神经网络提取人脸特征,将每幅人脸图像映射为一维向量,最后进行人脸匹配,将代表两幅图像的人脸特征向量进行比对,使用欧几里得距离或余弦相似度进行度量,看是否属于同一身份。人脸识别可进一步分为一对一的人脸验证任务以及一对多的人脸辨认任务,人脸验证任务是将待测人脸与给定的人脸进行比对,看是否为同一身份,主要用于刷脸支付、手机解锁等场景。人脸辨认任务则是将待测人脸与给定的人脸图像库中的人脸进行比对,看是否属于图像库中的人脸身份,主要用于门禁系统、视频监控等场景。

Figure 1. Process of deep face recognition

图1. 深度人脸识别流程

近年来深度人脸识别的研究主要针对网络架构以及损失函数进行优化改进。网络架构主要基于现有的卷积神经网络进行改进,目的是使提取出的人脸特征对光照、姿态变化等因素具有鲁棒性,同时具备可区分性。为了更好的划分决策边界,使类内更聚,类间更开,提出了一系列用于人脸识别的损失函数,包括对比损失、三元组损失、中心损失以及基于角余弦裕度的损失。本文主要归纳总结了深度人脸识别技术,总结了基于不同网络架构的人脸识别方法,回顾了深度人脸识别中用于监督训练的损失函数,包括基于欧几里得距离的损失和基于角余弦余量的损失。接着总结了人脸识别常用的数据集和评价指标,并在数据集上对主流的深度人脸识别方法进行比较。最后总结了人脸识别目前面临的挑战和未来的发展趋势。

2. 网络模型

深度人脸识别主要采用卷积神经网络作为特征提取网络提取人脸特征,卷积神经网络的关键思想就是局部感受野、权值共享以及池化。目前深度人脸识别的网络模型可分为两类,一类是深度卷积神经网络,通过设计更复杂的网络模块提升网络的特征提取能力,但急剧增加的模型参数和计算量使其无法应用于实时人脸识别任务。另一类则是轻量级网络,设计轻量级架构降低模型参数量和计算量,同时保持良好的识别性能,提升现实场景的应用能力。本文将重点关注基于卷积神经网络的深度人脸识别方法,并依据不同的网络模型对深度人脸识别方法进行归纳总结。

2.1. 基于AlexNet的人脸识别方法

自AlexNet被提出并在ImageNet分类竞赛中获得第一,卷积神经网络受到计算机视觉领域的关注。AlexNet分别在两个GPU上进行同等操作,每个卷积层都包含卷积、池化和激活,使用ReLu激活函数替代Sigmoid并引入dropout策略使神经元随机失活,保持网络的稀疏性,防止过拟合。受AlexNet模型的启发,Deepface被提出,首次使用卷积神经网络提取人脸特征,使用9层CNN结构提升了人脸验证性能。DeepID2通过4层卷积加池化操作提取人脸特征。这些深度人脸识别方法借助卷积神经网络极大的提升了人脸识别性能,使得基于深度学习的人脸识别方逐渐取代了传统基于图像处理的人脸识别方法。

2.2. 基于VGGNet的人脸识别方法

AlexNet网络深度有限,一个自然的想法就是增大网络深度,进一步提取图像的高维特征,于是VGGNet被提出,其将卷积核大小减小为3 × 3以减少参数量,虽然卷积核大小减少会导致小的感受野,但通过堆叠多个3 × 3卷积可以获得相当于5 × 5或7 × 7的感受野,更多的非线性映射可以增加网络的拟合能力。为进一步提取高层的人脸特征,为了使网络更好的学习中间层特征,使深层网络更容易优化,Yi Sun等人将VGGNet最后几层的卷积改为局部卷积,将全局权值共享改为局部区域权值共享,同时在多个中间卷积层分支出的全连接层中添加监督信号。虽然通过增加网络深度可以一定程度的提升网络的特征提取能力,但也会使参数量和计算量的大幅增加,同时也会增大过拟合的风险。

2.3. 基于GoogleNet的人脸识别方法

Figure 2. Example of inception structure

图2. Inception结构示例

GoogleNet通过设计一种Inception模块化结构来保持神经网络的稀疏性,使用稀疏连接代替全连接和卷积,缓解了过拟合和计算复杂度过高的问题,Inception结构如图2所示,在同一层中同时部署多个卷积和池化操作,将每个经过卷积和池化后的特征图进行通道拼接。每个Inception结构中包含不同大小的卷积尺寸,图2仅给出一种常用的卷积尺寸。受GoogleNet启发,Hana Ben Fredj等人分别在第2、3、4个池化层之后加入2、5、2个Inception结构,同时还使用了一些数据增强技术,在LFW和YTF数据集上提升了人脸识别性能。Inception的结构相比于堆叠卷积的方式减少了参数和计算量,同时多尺度卷积的方式有利于提取人脸图像的多尺度特征,进而提升人脸识别性能,但随着Inception模块的增多,梯度消失或梯度爆炸的问题仍然存在。

2.4. 基于ResNet的人脸识别方法

在之前的深层网络优化过程中,若每一层的误差梯度小于1,反向传播时网络越深梯度越趋近于0,导致梯度消失,若每一层的误差梯度大于1,反向传播时网络越深梯度越大,导致梯度爆炸。ResNet提出一种残差连接方法,缓解了网络过深导致的性能退化问题,其中提出的残差模块结构如图3所示,其在多个权重层之后添加快捷连接方式,将经过多层特征提取之后的特征F(x)与原始特征x对应相加,保证在经过多层特征提取之后原始特征信息不会丢失。因此近年来主流的深度人脸识别方法多采用残差连接的网络结构,实现了最先进的人脸识别性能。该残差连接方式不受模块内具体结构的影响,所以可以很好的兼容其他网络模型。

Figure 3. Structure of residual module

图3. 残差模块结构

2.5. 基于轻量级网络的人脸识别方法

深度卷积神经网络通过堆叠卷积和池化操作提取图像的深层特征,一方面可以提升网络的特征提取能力,但另一方面也带来了较大的资源消耗,大量的参数和复杂的计算量使其在移动端的应用受到限制。轻量级网络模型的提出显著降低了卷积神经网络的参数量和计算量。受这些轻量级模型启发,一些基于轻量级网络的人脸识别方法被提出,使得实际应用可以在移动端部署人脸识别系统。为了降低计算复杂度,MobileFaceNet [1] 使用深度可分离卷积替代普通卷积,同时使用全局深度卷积替代全局平均池化,突出人脸图像中心单元的特征。为进一步提升MobileFaceNet的速度,Mobiface [2] 使用快速下采样,在提取特征的最开始阶段连续地应用下采样步骤,以避免特征图的大空间维度。然后在后期添加更多的特征图,以支撑整个网络的信息流。ShuffleFaceNet通过使用全局深度卷积层和参数校正线性单元(PReLU)来扩展ShuffleNetV2,用于实时人脸识别应用。Jintao Zhang等 [3] 使用Seesaw模块,用非均匀的组卷积替代逐点卷积并添加通道混洗操作实现不同卷积组之间的信息流动。Fadi Boutros等 [4] 使用混合卷积,对输入通道进行分组并将不同的内核大小应用于每个组,并结合通道混洗操作。这些人脸识别方法通过设计轻量级的网络架构或高效的卷积方式极大的减少了模型的复杂度,提升了人脸特征提取效率,促进了深度人脸识别在移动端的应用。

3. 损失函数

人脸识别损失函数的设计对于网络模型的监督训练起到关键作用,其将人脸特征映射到特征空间进行相似性比较,根据特征空间的不同可分为基于欧几里得距离的损失函数与基于角余弦裕度的损失函数。基于欧几里得距离的损失函数将人脸特征映射到欧几里得空间,通过比较人脸特征之间的欧几里得距离判断人脸身份。基于角余弦裕度的损失函数则将人脸特征映射到超球空间,再使用人脸特征之间的余弦相似度判断人脸身份。

3.1. 基于欧几里得距离的损失函数

对比损失向网络输入两种类型的样本对,即正样本对(来自同类的两张脸)和负样本对(两张来自不同类的人脸图像),最小化正样本对的欧几里德距离,并惩罚距离小于阈值的负样本对。假设有一对人脸特征,DW表示两个人脸特征的欧氏距离,Y为两个特征是否匹配的标签,当两个特征匹配时取1,否则取0,m为设定的距离阈值,N为样本数量,则对比损失如式1所示。对比损失引入两种监督信号,其中识别信号使用交叉熵损失,使不同人脸身份的特征之间有足够的间距,而验证信号采用对比损失,最小化相同身份人脸特征对的欧氏距离。

L = 1 N n = 1 N Y D W 2 + ( 1 Y ) max ( m D W , 0 ) 2 (1)

FaceNet尝试使用三元组损失代替SoftMax损失来监督训练网络模型,与对比损失不同的是,三元组损失将每张人脸图像与其他人脸图像构成的每个图像对之间设置边距,而对比损失试图将一个身份的所有人脸投射到嵌入空间的单个点上。三元组损失使用三元组(xa, xp, xn)作为输入,其中xa表示锚点,即能代表类中心的样本,xp表示正类样本,与xa属于同一人脸身份,xn表示负类样本,与xa属于不同人脸身份。在训练时我们选择三元组使其满足式3表示的不等式,函数f表示特征提取过程,α为距离阈值,若违背式2则更新网络参数,只有不满足式2的三元组才会对网络参数更新起到积极作用。该损失函数的目的是在训练过程中将正样本对距离拉近,负样本对推开。三元组损失的提出有效的提升了人脸识别性能,但在每个训练批次中选择硬三元组的方式,增加了训练难度。

f ( x a ) f ( x p ) 2 2 + α < f ( x a ) f ( x n ) 2 2 (2)

由于对比损失和三元组损失训练难度较大,会出现训练不稳定的情况,中心损失被提出,该损失通过限制类内样本与其类中心的距离使同类样本之间的距离更近,其损失公式如式3所示,cyi代表属于第yi类人脸的类中心,在每轮迭代的小批次中选择与类中心同属一个类别的人脸特征更新cyi。由式3可以看出该损失只能将相同身份的人脸特征距离拉近,无法保证不同身份的人脸特征之间的距离,所以该损失需要配合Softmax交叉熵损失一起训练。中心损失避免了挖掘硬样本,简化训练步骤,但该损失要求各个身份的人脸图像足够多且平衡,保证每个类中心都被充分优化。

L C = 1 2 i = 1 m x i c y i 2 2 (3)

3.2. 基于角余弦裕度的损失函数

基于欧几里得距离的损失函数的本质是使同身份人脸特征更紧凑而不同身份人脸特征分布更分散,但基于欧式距离的度量方式使得网络模型训练过程复杂且不容易收敛。为了不增加额外的损失,SphereFace [5] 基于原始Softmax损失进行改进,提出了A-Softmax Loss,将式1中的 W j x j 转换为 W j x j cos θ j , j θ j , j 表示权值矩阵第j列的向量 W j 与特征向量 x j 之间的夹角,同时为了便于训练将 W j 归一化为1,在样本与其所属类中心的夹角添加乘法裕度,进一步扩大类间距,损失公式如式4所示,为保证余弦函数单调递减,规定 θ [ k π / m , ( k + 1 ) π / m ] ,k为0到m - 1之间的整数,m即为乘法角裕度。该损失函数通过缩小特征向量与类中心的夹角使同类人脸特征分布紧凑,同时乘法角裕度的引入使不同类的人脸分布更分散。

L = 1 N i log ( e x i ( ( 1 ) k cos ( m θ y i , i ) 2 k ) e x i ( ( 1 ) k cos ( m θ y i , i ) 2 k ) + j y i e x i cos θ j , i ) (4)

虽然A-Softmax Loss取得了先进的性能,但特征范数的存在使得训练难度较大,难以收敛。为进一步降低训练难度,Rajeev Ranjan等向人脸特征添加L2约束,然后通过常数因子α进行缩放,限制特征位于固定半径的超球面上。CosFace [6] 提出Large Margin Cosine Loss (LMCL)将特征范数归一化,人脸特征被映射到半径为s的超球面上,同时使用余弦裕度扩大类间距,相比乘法角裕度更容易优化,损失公式如式5所示。ArcFace [7] 提出一种附加角裕度的损失函数,其损失公式如式6所示,可以看出与式5的LMCL具有类似的结构,不同的只有样本特征与其正类中心的相似度的裕度表示形式,使用附加角裕度的方式与使用乘法角裕度或加法余弦裕度相比可以获得更具辨别性的深度人脸特征,同时具有更好的可解释性。AirFace将ArcFace损失中目标logit的余弦函数改为角度,对于嵌入特征尺寸较小的模型具有较好的收敛性。为了避免手动调节超参数,Xiao Zhang等人 [8] 提出一种无需调节超参数的自适应损失函数AdaCos,可以在训练过程中自动加强监督。

L = 1 N i log ( e s ( cos θ y i , i m ) e s ( cos θ y i , i m ) + j y i e s cos θ j , i ) (5)

L = 1 m i = 1 m log e s ( cos ( θ y i , i + m ) ) e s ( cos ( θ y i , i + m ) ) + j = 1 , j y i n e s cos θ j , i (6)

最近样本挖掘的思想被融入到损失函数中,式7为损失函数的基本形式, p ( x i ) 表示第i个样本xi被预测正确的概率,G为指示函数,通常固定值为1。 T ( cos θ y i ) 为正余弦相似度,代表样本特征与其正类中心的相似度, N ( t , cos θ j ) 为负余弦相似度,代表样本特征与其负类中心的相似度。MV-Arc-Softmax [9] 通过额外的超参数调节,强调错误分类的样本特征,正余弦相似度使用附加角裕度,负余弦相似度如式8所示,每轮迭代的负余弦相似度可能不同,当 cos ( θ y i + m ) cos θ j 时,被认为是简单样本,负余弦相似度保持 cos θ j 不变,否则被认为是困难样本,取参数t大于1,则 t cos θ j + t 1 始终大于 cos θ j ,困难样本的损失占比加大,在训练阶段始终被强调,提高了训练效率。但超参数需要手动设置,较大的超参数可能会导致收敛问题。为了更有效的利用训练样本,CurricularFace [10] 将课程式学习融入损失函数中,在训练前期关注简单样本,后期关注困难样本,其负余弦相似度的定义如式9,对于每轮训练所使用的参数t使用上一轮迭代的t以及当前批次所有正余弦相似度的平均值自适应调节,避免了手动调整超参数。AdaFace [11] 提供了一种新的数据挖掘思路,基于图像质量来强调不同难度的样本而不是仅强调错误分类的样本,忽略训练样本中模糊难以分辨的人脸图像。

L = 1 N i = 1 N G ( p ( x i ) ) log e s T ( cos θ y i ) e s T ( cos θ y i ) + j = 1 , j y i n e s N ( t , c o s θ j ) (7)

N ( t , cos θ j ) = { cos θ j cos ( θ y i + m ) cos θ j t cos θ j + t 1 cos ( θ y i + m ) < cos θ j (8)

N ( t , cos θ j ) = { cos θ j cos θ j ( t + cos θ j ) cos ( θ y i + m ) cos θ j cos ( θ y i + m ) < cos θ j (9)

此外一些损失函数进一步规范样本的特征分布,UniformFace为了使人脸类中心均匀分布在特征空间中,施加一个等分布约束,通过利用特征空间来最大化类中心之间的最小距离。MagFace [12] 引入了一种自适应机制,通过将简单样本拉到类中心,并将困难样本推开,来学习结构良好的类内特征分布。针对数据不平衡问题,Fair Loss提出一种公平损失,使用自适应裕度代替固定的余弦裕度或角裕度,结合强化学习优化公平损失。类似的,AdaptiveFace [13] 引入自适应裕度,使模型学习每个类的特殊裕度,以自适应地压缩类内变化。

4. 针对特定任务的人脸识别方法

除了设计网络架构以及损失函数来提升人脸识别性能,针对如大姿态变化、遮挡、数据不平衡以及大的数据噪声等的特定任务场景,需要设计特殊的适用性方法满足实际场景的需要。为了减少除人脸身份以外的其他信息干扰,Yu Liu等人使用自动编码器提取身份信号并通过对抗训练减少其他因素干扰。针对人脸遮挡问题,Lingxue Song等人提出了一种掩模学习策略,以从识别中发现并丢弃损坏的特征元素。人脸识别常用的训练数据中各类的图像数量不平衡,某些身份图像数量较少导致数据的长尾分布,Yandong Guo等人在交叉熵损失中引入正则化器,同时为样本缺少的类引入一种新的损失以平衡训练,将样本稀少的类的权重向量的范数与正常类的权重向量对齐。Yue Wu等人提出了一种中心不变损失,该损失惩罚每个类中心之间的距离,将每个人的类中心均匀分布,以强制学习的特征对所有人具有通用表示。

通常深度人脸识别将人脸图像映射为特征空间中的确定性表示,这对于一些低质量的模糊图像并不适用,近年来不确定性学习被引入深度人脸识别来解决此类问题。Yichun Shi等 [14] 提出了概率人脸嵌入,它将每个人脸图像表示为潜在空间中的高斯分布,分布的平均值估计最可能的特征值,而方差显示特征值的不确定性。Jie Chang等 [15] 将数据不确定性学习应用于人脸识别,从而同时学习特征和不确定性,同时提供了关于合并不确定性估计如何帮助减少噪声样本的不利影响并影响特征学习的深入分析。Shen Li等人 [16] 提出了一种新的球面空间人脸特征不确定性学习框架。

5. 数据集

深度人脸识别需要大规模的数据训练网络模型,数据集的发展也很大程度上促进了深度人脸识别技术的发展。对于训练集,CASIA从IMDb网站上搜索1940年到2014年的名人信息,通过聚类保证每个身份的图像数量不少于15张,并且删除了与LFW数据集中同名的人脸图像,使训练数据独立于测试数据。VGGFace从IMDb和Google上搜集了更多的公众人物图像,去除了与LFW和YTF身份相同的图像。UMDFaces提供了静态图片以及视频,同时还提供了人脸框、21个关键点和性别注释。MS-Celeb-1M从搜索引擎获取图片,每个人约20张图片并经过微软标注。VGGFace2包含了不同年龄、姿态、光照和种族的人脸图像。IMDb-Face是一个经过人工清理标签的干净人脸识别数据集,图片质量较高。WebFace260M是全球目前最大的人脸识别数据集,其从互联网公开渠道收集,WebFace42M为过滤后的干净版本。对于测试集,LFW主要用来研究非受限情况下的人脸识别场景,图片主要来自互联网,YTF是从YouTube下载的人脸视频数据集,主要用于视频人脸识别研究。IJB-A包含了来自不同国家、地区和种族的人脸图像和视频,具有广泛的地域性,IJB-B和IJB-C为其扩展版本。MegaFace是第一个百万规模级别的人脸识别算法测试基准,CFP中每个人除了正面人脸图片还有4张侧面人脸图片,测试识别对于大姿态变化的鲁棒性。AgeDB为跨年龄人脸识别数据集,最低年龄1岁,最高年龄101岁,平均年龄大概为50岁。CPLFW和CALFW是基于LFW的跨姿态人脸数据集和跨年龄人脸数据集。为有效助力疫情防控中的人脸识别,武汉大学提出了佩戴口罩的人脸数据集,RMFRD包含真实世界佩戴口罩的人脸图像,SMFRD包含模拟佩戴口罩的人脸图像。表1详细列举了人脸识别常用的公开数据集信息,包括人脸身份数量、图片数量、视频数量以及发布时间。

Table 1. Dataset of face recognition

表1. 人脸识别数据集

6. 评价指标

人脸识别任务可分为验证任务以及识别任务,验证任务即一对一匹配,判断待检测图像与给定的图像是否属于同一个身份,其评价指标通常为ROC曲线,横坐标为接受率TAR,纵坐标为误识率FAR,其计算公式如式10、11所示。TP表示被正确匹配的正图像对数量,FN表示未被匹配的正图像对数量,TN表示未被匹配的负图像对数量,FP表示被错误匹配的负图像对数量。不同的相似度阈值可得到曲线上不同的TAR/FAR点,ROC曲线与坐标轴构成的图形面积被称为曲线下面积AUC,面积越大表示识别效果越好。实际考察要求在较低的误识率下保持较高接受率。

T A R = T P T P + F N (10)

F A R = F P F P + T N (11)

识别任务即一对多匹配,判断待测图像身份是否属于图像库中的身份,根据图像库中是否包含待检测图像可分为开集识别和闭集识别。开集识别中待测图像不在图像库中出现,其也有对应的ROC曲线,横坐标为真阳性率TPIR,表示在图像库中成功搜索出待测图像所占的比例,纵坐标为假阳性率FPIR,表示待测图像不在图像库中,但被误认为图像库中人脸身份的待测图像所占比例。rank-k表示真实标签出现在预测结果前k个即算预测正确,通过固定rank值,改变相似度阈值可以得到曲线上不同的TPIR/FPIR点,类似的实际考察要求在较低的假阳性率下保持较高的真阳性率。闭集识别中待测图像在图像库中,此时评价指标为CMC曲线,其横轴为rank值,纵轴为正确率即正确识别的待测图像所占的比例,要求对于rank值较小的情况下仍然能保持较高的正确率。

随着深度人脸识别的发展,其研究热点从网络架构设计转移到损失函数的设计,现阶段深度人脸识别已经达到了可靠的精度,如何降低资源消耗、减少计算成本逐渐成为另一个研究热点。同时针对特定任务的深度人脸识别方法也在探究设计一个对遮挡、大姿态变化、光照等更鲁棒的识别框架。表2比较了近五年来主流的深度人脸识别方法,主要从模型大小、训练集大小以及验证精度五个方面进行比较,选用6个测试集上的验证精度进行比较,包括LFW、YTF、AgeDB、CFP-FP、CPLFW和CALFW。

Table 2. Comparison of mainstream deep facial recognition methods

表2. 主流深度人脸识别方法比较

7. 结束语

本文对深度人脸识别方法进行了总结和梳理。目前人脸识别技术已经成熟,但同样面临着许多挑战:1) 面对各种面部变化如大姿态、运动模糊、低照度、低分辨率、遮挡等情况下的识别率较低。2) 大规模训练数据不可避免的存在噪声干扰。3) 随着人脸身份的增加,计算成本增大,训练周期变长。4) 训练数据不平衡,长尾数据的人脸表征效果较差。5) 手动标记的成本较大,未标记的人脸图像未被充分利用。

针对深度人脸识别当前面临的挑战提出未来的发展方向:1) 设计对面部变化鲁棒的人脸识别方法,更好的应用于实际场景。2) 设计轻量级模型和更高效的模型训练方法,使现有的深度人脸识别方法能够应用到实际场景。3) 设计合理利用不平衡数据的训练方法,减少长尾数据的干扰。4) 设计无监督或半监督的人脸识别方法,充分利用未标记的人脸图像。

基金项目

国家自然科学基金(61872190);江苏省博士后科研资助计划项目(2020Z058)。

文章引用

王海勇,潘海涛. 深度人脸识别方法综述
A Survey of Deep Face Recognition[J]. 软件工程与应用, 2023, 12(04): 609-619. https://doi.org/10.12677/SEA.2023.124059

参考文献

  1. 1. Chen, S., Liu, Y., Gao, X. and Han, Z. (2018) MobileFaceNets: Efficient CNNs for Accurate Real-Time Face Verification on Mobile Devices. In: Zhou, J., et al. Eds., CCBR 2018: Biometric Recognition, Springer, Cham, 428-438. https://doi.org/10.1007/978-3-319-97909-0_46

  2. 2. Duong, C.N., Quach, K.G., Jalata, I., Le, N. and Luu, K. (2019) MobiFace: A Lightweight Deep Learning Face recOgnition on Mobile Devices. 2019 IEEE 10th International Conference on Biometrics Theory, Applications and Systems (BTAS), Tampa, 23-26 September 2019, 1-6. https://doi.org/10.1109/BTAS46853.2019.9185981

  3. 3. Zhang, J. (2019) Seesawfacenets: Sparse and Robust Face Verification Model for Mobile Platform. https://arxiv.org/abs/1908.09124

  4. 4. Boutros, F., Damer, N., Fang, M., Kirchbuchner, F. and Kuijper, A. (2021) MixFaceNets: Extremely Efficient Face Recognition Networks. 2021 IEEE International Joint Conference on Biometrics (IJCB), Shenzhen, 4-7 August 2021, 1-8. https://doi.org/10.1109/IJCB52358.2021.9484374

  5. 5. Liu, W., Wen, Y., Yu, Z., et al. (2017) SphereFace: Deep Hypersphere Embedding for Face Recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, 21-26 July 2017, 6738-6746. https://doi.org/10.1109/CVPR.2017.713

  6. 6. Wang, H., Wang, Y., Zhou, Z., et al. (2018) CosFace: Large Margin Cosine Loss for Deep Face Recognition. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, 18-23 June 2018, 5265-5274. https://doi.org/10.1109/CVPR.2018.00552

  7. 7. Deng, J., Guo, J., Xue, N. and Zafeiriou, S. (2019) ArcFace: Additive Angular Margin Loss for Deep Face recOgnition. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 4 4685-4694. https://doi.org/10.1109/CVPR.2019.00482

  8. 8. Zhang, X., Zhao, R., Qiao, Y., Wang, X.G. and Li, H.S. (2019) AdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representations. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 10815-10824. https://doi.org/10.1109/CVPR.2019.01108

  9. 9. Wang, X., Zhang, S., Wang, S., et al. (2020) Mis-Classified Vector Guided Softmax Loss for Face Recognition. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 12241-12248. https://doi.org/10.1609/aaai.v34i07.6906

  10. 10. Huang, Y., Wang, Y., Tai, Y., et al. (2020) Curricularface: Adaptive Curriculum Learning Loss for Deep Face reCognition. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, 13-19 June 2020, 5900-5909. https://doi.org/10.1109/CVPR42600.2020.00594

  11. 11. Kim, M., Jain, A.K. and Liu, X. (2022) AdaFace: Quality Adaptive Margin for Face Recognition. 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), New Orleans, 18-24 June 2022, 18729-18738. https://doi.org/10.1109/CVPR52688.2022.01819

  12. 12. Meng, Q., Zhao, S., Huang, Z. and Zhou, F. (2021) MagFace: A Universal Representation for Face Recognition and Quality Assessment. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, 20-25 June 2021, 14220-14229. https://doi.org/10.1109/CVPR46437.2021.01400

  13. 13. Liu, H., Zhu, X., Lei, Z. and Li, S.Z. (2019) AdaptiveFace: Adaptive Margin and Sampling for Face Recognition. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 11939- 11948. https://doi.org/10.1109/CVPR.2019.01222

  14. 14. Shi, Y. and Jain, A.K. (2019) Probabilistic Face Embeddings. 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, 27 October 2019-2 November 2019, 6901-6910. https://doi.org/10.1109/ICCV.2019.00700

  15. 15. Chang, J., Lan, Z., Cheng, C. and Wei, Y.C. (2020) Data Uncertainty Learning in Face Recognition. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, 13-19 June 2020, 5709-5718. https://doi.org/10.1109/CVPR42600.2020.00575

  16. 16. Li, S., Xu, J., Xu, X., et al. (2021) Spherical Confidence Learning for Face Recognition. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nashville, 20-25 June 2021, 15629-15637.

  17. NOTES

    *通讯作者。

期刊菜单