人脸表情自动识别是情感计算和计算机视觉领域的研究热点之一[1-5]。近年来,随着人工智能的迅猛发展,人脸表情识别在多媒体娱乐、人机交互、机器智能等领域有着广泛的应用前景。近年来,许多研究者致力于人脸表情识别研究,并提出了许多有效的方法。
Zheng等[6]提出了核典型关联分析(kernel canoncal correlation analysis,KCCA)的人脸表情识别方法,通过对输入图像中人面部34个关键点进行定位,然后将这些关键点通过Gabor小波变换转换成带有标注信息的图向量(labeled graph, LG)来表示人脸特征。另外,针对每个训练人脸表情图像,将6种表情类型的标签转化成一个六维语义表达向量,进而学习LG向量与语义表达向量之间的相关关系,利用这种关系推断出测试图像的语义表达。在不同人脸表情数据库上的实验结果表明了该方法的有效性。与目标检测等计算机视觉任务相比,图像描述不仅需要检测图像中的内容,还需要理解图像中目标物体之间的具体关系,并使用自然语言正确地表达出来。Uddin等[7]提出了一种新的方法来对基于时间序列的视频中的人脸表情进行识别,首先从时间序列人脸中提取局部方向模式特征,然后进行主成分分析和线性判别分析,使特征具有较强的鲁棒性。最后,利用隐马尔可夫模型对不同的面部表情进行局部特征建模和识别,取得了较好的识别效果。Yu[8]提出了一种基于图像的静态面部表情识别方法,该方法包含一个基于3个最先进的人脸检测器集成的人脸检测模块,以及一个基于多层深度卷积神经网络(convolutional neural network, CNN)级联的分类模块。为了自动决定级联CNN的权重分配问题,提出了通过最小化对数似然损失和最小化铰链损失2种自适应训练卷积神经网络权值的优化方案。Baccouche等[9]设计了一种时空卷积稀疏自编码器,在不需要任何监督信息的情况下学习稀疏移位不变表示。
虽然上述人脸表情识别方法取得了较好的识别效果,但需要注意的是,这些方法通常认为训练数据样本和测试数据样本的数据分布相同。而在实际应用中,可能无法满足相同的分布假设。特别是当训练数据和测试数据来自2个不同的数据库,且这2个数据库是在不同的数据收集环境下收集的。对于这样的跨域人脸表情识别问题,传统的人脸表情识别方法可能无法达到很好的识别效果。近年来,迁移学习在图像分类[10-11]和标注[12-13]、目标识别[14-17]和特征学习[18-20]等方面都有很好的应用前景。且在跨域识别问题上展现出较大的优势,越来越受到研究者的关注。
在跨域人脸表情识别问题中,源域和目标域来自不同的数据库,服从不同的数据分布,因此需要解决的主要问题就是如何减小不同域之间的分布差异。近几年,一些研究者通过对源域和目标域数据进行权重的重用来减小域之间的分布差异[21],或者通过找到一个共享的特征表示在保留原始数据属性的同时来减小域之间的分布差异[22-23]。但是大多数存在的方法仅对齐了边缘分布而忽略了条件分布的重要性,且往往需要目标域中有少量标签样本。
因此,为了解决源域和目标域数据来自2个不同的数据集,服从不同的边缘分布和条件分布,且目标域没有标记数据的无监督跨域表情识别问题,本文提出将联合分布对齐的迁移学习方法应用于跨域表情识别。该方法通过找到一个特征变换,将源域和目标域数据映射到一个公共子空间中,在该子空间中联合对齐边缘分布和条件分布来减小域之间的分布差异,然后对变换后的特征进行训练得到一个域适应分类器来预测目标域样本标签,提高跨域人脸表情识别的准确率。
1 提出方法 1.1 问题描述令
分布对齐的核心思想是通过找到一个特征变换矩阵,将源域和目标域样本映射到一个公共子空间,即可再生核希尔伯特空间(reproducing kernel Hilbert space, RKHS),通过引入无参数的最大均值差异MMD来度量源域和目标域数据之间边缘分布和条件分布的距离,在该子空间中在最大化投影后源域和目标域数据方差的同时,联合对齐边缘分布和条件分布,最小化域之间的分布距离,即
$\begin{array}{l} {\rm{Dist}}({D_s},{D_t}) \approx {\rm{Dist}}({P_s}({{{X}}_s}),{P_t}({{{X}}_t})) + \\ \quad\quad {\rm{Dist}}({P_s}({{{Y}}_s}|{{{X}}_s}),{P_t}({{{Y}}_t}|{{{X}}_t})) \\ \end{array} $ | (1) |
然后对变换后的特征进行训练得到一个域适应分类器,来对目标域中的数据标签进行预测。分布对齐原理示意图如图 1所示。
Download:
|
|
令
$\mathop {{\rm{max}} }\limits_{{{{W}}^{\rm{T}}}{{W}} = {{I}}} {\rm{tr}}({{{W}}^{\rm{T}}}{{XH}}{{{X}}^{\rm{T}}}{{W}})$ | (2) |
在进行分布对齐之前,需要解决的主要问题就是找到一个合适的度量准则来计算2个域之间的分布差异。而在机器学习中存在很多度量准则可以度量不同分布之间的差异, 例如欧氏距离、余弦相似度、KL散度等。但这些方法通常计算起来比较复杂。因此为了对齐边缘分布,减小边缘分布
MMD的主要目标就是在RKHS中计算经过变换后的源域样本和目标域样本均值之间的距离。因此,边缘分布对齐的目标函数可以写成:
$\mathop {\min }\limits_{{{{W}}^{\rm{T}}}{{W}} = {{I}}} \left\| {\frac{1}{{{n_s}}}\sum\limits_{i = 1}^{{n_s}} {{{{W}}^{\rm{T}}}{{{x}}_i} - \frac{1}{{{n_t}}}\sum\limits_{j = 1}^{{n_t}} {{{{W}}^{\rm{T}}}{{{x}}_j}} } } \right\|_H^2$ | (3) |
式中:
通过矩阵技巧和迹优化,式(3)可以被改写为
$\mathop {\min }\limits_{{{{W}}^{\rm{T}}}{{W}} = {{I}}} {\rm{tr}}({{{W}}^{\rm{T}}}{{XL}}{{{X}}^{\rm{T}}}{{W}})$ | (4) |
其中
$ {L}_{ij}=\left\{\begin{split}&\dfrac{1}{{n}_{s}{n}_{s}},\quad{{{x}}}_{i},{{{x}}}_{j}\in D{}_{s}\\ &\dfrac{1}{{n}_{t}{n}_{t}},\quad{{{x}}}_{i},{{{x}}}_{j}\in D{}_{t}\\ &-\dfrac{1}{n{}_{s}n{}_{t}},\quad{\text{其他}}\end{split}\right.$ | (5) |
因此,通过式(4)使得域之间的边缘分布
减小边缘分布的差异通常并不能保证域之间的条件分布差异也随之减小。实际上最小化条件分布
为了解决这一问题,提出利用目标域数据的伪标签,即通过将在有标签的源域数据上训练的基分类器应用于无标签的目标域数据,可以很容易地预测目标域数据的伪标签。由于不同域之间的分布差异,这些伪标签可能不是太准确,需要在实验中进行迭代优化。在源域带标签数据上训练的基分类器可以是标准的学习器,例如支持向量机(SVM)、NN等。
有了真实标签的源域数据和带有伪标签的目标域数据之后,就可以在标签空间
$\mathop {\rm{min} }\limits_{{{{W}}^{\rm{T}}}{{W}} = {{I}}} \left\| {\frac{1}{{n_s^{(c)}}}\sum\limits_{{{{x}}_i} \in D_s^{\left( c \right)}} {{{{W}}^{\rm{T}}}{{{x}}_i} - \frac{1}{{n_t^{(c)}}}\sum\limits_{{{{x}}_j} \in D_t^{\left( c \right)}} {{{{W}}^{\rm{T}}}{{{x}}_j}} } } \right\|_H^2$ | (6) |
式中:
通过进一步优化,式(6)可以简化为
$\mathop {\min }\limits_{{{{W}}^{\rm{T}}}{{W}} = {{I}}} {\rm{tr}}\left( {{{{W}}^{\rm{T}}}{{X}}{{{L}}_c}{{{X}}^{\rm{T}}}{{W}}} \right)$ | (7) |
式中:
$ {({{{L}}}_{c})}_{ij}=\left\{\begin{array}{l}\dfrac{1}{{n}_{s}^{(c)}{n}_{s}^{(c)}},\quad{{{x}}}_{i},{{{x}}}_{j}\in {D}_{s}^{\left(c\right)}\\ \dfrac{1}{{n}_{t}^{(c)}{n}_{t}^{(c)}},\quad{{{x}}}_{i},{{{x}}}_{j}\in {D}_{t}^{\left(c\right)}\\ -\dfrac{1}{{n}_{s}^{(c)}{n}_{t}^{(c)}},\quad\left\{\begin{array}{l}{{{x}}}_{i}\in {D}_{s}^{\left(c\right)},{{{x}}}_{j}\in {D}_{t}^{\left(c\right)}\\ {{{x}}}_{j}\in {D}_{s}^{\left(c\right)},{{{x}}}_{i}\in {D}_{t}^{\left(c\right)}\end{array}\right.\\ 0,\quad{\text{其他}}\end{array}\right.$ | (8) |
因此,通过式(7)减小了域之间的条件分布差异。但是在本文要解决的问题中,目标同时是最小化域间的边缘分布和条件分布的差异。因此将式(4)、(7)与式(2)合并到一起得到DaL的优化问题,即
$\mathop {\min }\limits_{{{{W}}^{\rm{T}}}{{XH}}{{{X}}^{\rm{T}}}{{W}} = {{I}}} {\rm{tr}}({{{W}}^{\rm{T}}}{{XL}}{{{X}}^{\rm{T}}}{{W}}) + \sum\limits_{c = 1}^C {{\rm{tr}}({{{W}}^{\rm{T}}}{{X}}{{{L}}_c}{{{X}}^{\rm{T}}}{{W}})} + \lambda \left\| {{W}} \right\|_F^2$ | (9) |
式中:
令
$\begin{array}{l} {\rm{tr}}({{{W}}^{\rm{T}}}{{XL}}{{{X}}^{\rm{T}}}{{W}}) + \displaystyle\sum\limits_{c = 1}^C {{\rm{tr}}({{{W}}^{\rm{T}}}{{X}}{{{L}}_{\rm{c}}}{{{X}}^{\rm{T}}}{{W}})} + \\ \quad\quad\quad\quad{\rm{tr}}(({{I}} - {{{W}}^{\rm{T}}}{{XH}}{{{X}}^{\rm{T}}}{{W}})\varphi ) \\ \end{array} $ | (10) |
令式(10)对变换矩阵
$({{XL}}{{{X}}^{\rm{T}}} + {{X}}\displaystyle\sum\limits_{c = 1}^C {{{{L}}_c}{{{X}}^{\rm{T}}} + \lambda {{I}}} ){{W}} = {{XH}}{{{X}}^{\rm{T}}}{{W}}\varphi $ | (11) |
最后,选择式(11)的前
算法1 分布对齐算法(DaL)
输入 数据矩阵
输出 变换矩阵
1)通过式(5)构建MMD矩阵
2)通过对式(11)进行特征分解选择最小的
3)在
4)重复步骤2)、3)直至收敛;
5)在标注数据
1)CK+数据库
CK+(the extended cohn-kanda dataset)数据库[27]是美国的匹兹堡大学团队和卡内基梅隆大学团队合作在CK(cohn–kanade)数据库[28]上进行扩充而来的。CK +数据库包含123名年龄在18~50岁来自不同人种的成年人,包括非裔美国人、亚洲以及拉丁美洲人的593个图像序列,如图2所示。在CK数据库的基础上对视频序列和采集对象进行扩充,分别增加了22% 和27%,且在该数据库中的视频序列中包括生气、厌恶、恐惧、高兴、难过、吃惊和中性等7种表情,每种表情均有完整的面部编码。该数据库中表情图像的采集对象中有65%是女性,35%是男性。
Download:
|
|
2)Oulu-CASIA NIR & VIS Database数据库 [29]
该数据库主要由Oulu-CASIA NIR(近红外相机)和Oulu-CASIA VIS(可见光相机)两部分组成,如图3、4所示,均通过对年龄范围为25~58岁的80位测试者进行表情采集,其中男性和女性的比例分别为73.8%和26.2%。在80位测试者中,50位芬兰测试者由奥卢大学进行采集,剩余的测试者由中国科学院模式识别实验室完成采集整理。整个数据库包含的面部表情为高兴、生气、厌恶、惊讶、恐惧和悲伤,所有这些表情都是在3种不同光源条件(正常、强光、黑暗)下,分别通过一个可见光摄像机和一个近红外摄像机获得的。
Download:
|
|
Download:
|
|
为了比较,本文选择了近年来在跨域人脸表情识别中常使用的迁移学习算法,包括核均值匹配(kernel mean matching, KMM)[30]、Kullback-Leibler重要性估计过程(kullback-leibler importance estimation process, KLIEP)[31]、选择性迁移机(selective transfer machine, STM)[5]等与本文提出的分布对齐(DaL)进行对比,这些方法的参数设置将在后面进行介绍。此外,使用线性支持向量机(SVM)作为这4种基准对比方法的分类器,即KLIEP+SVM、KMM+SVM、STM+SVM和DaL+SVM,同时将无迁移的SVM作为基准方法与这4种算法进行对比。
在本文中,采用圆形LBP[32]特征提取算子来提取表情特征,在实验中选择2种不同的半径和周围像素点的圆形LBP算子,即
在实验过程中,每次选取这3个数据库中的任意2个分别作为源域(训练集)和目标域(测试集),因此可以得到6组对比实验,即
1) CK+作为源域,Oulu-CASIA NIR作为目标域,用C&N表示;
2) Oulu-CASIA NIR作为源域,CK+作为目标域,用N&C表示;
3) CK+作为源域,Oulu-CASIA VIS作为目标域,用C&V表示;
4) Oulu-CASIA VIS作为源域,CK+作为目标域,用V&C表示;
5) Oulu-CASIA NIR作为源域,Oulu-CASIA VIS作为目标域,用N&V表示;
6) Oulu-CASIA VIS作为源域,Oulu-CASIA NIR作为目标域,用V&N表示。
在本文实验中所用到的3个数据库中的表情样本构成如表1所示。实验中所有方法采用的参数设置及评价指标如下:在实验中,线性支持向量机
(SVM)以固定的
$A = \frac{{\left| {x:x \in {D_t} \wedge \hat y(x) = y(x)} \right|}}{{\left| {x:x \in {D_t}} \right|}}$ | (12) |
式中:
不同对比方法在本文设置的6种实验场景下的平均准确率分别如表2、3所示。从实验结果可以看出:
1)本文提出的DaL在不同场景下的识别效果相对于无迁移学习的传统机器学习算法SVM有大幅提升,且均高于KMM、KLIEP和STM,表明DaL在跨域人脸表情识别的有效性。
2)从表2和表3的1、2和3、4四组实验中可以看出,在源域为CK+而目标域分别为Oulu-CASIA VIS和Oulu-CASIA NIR时的识别准确率均低于在源域分别为Oulu-CASIA VIS和Oulu-CASIA NIR而目标域为CK+时的识别准确率,并结合表1可以看出,出现这种情况的原因:1)可能是因为CK+数据库中的表情样本数量较少;2)可能是因为CK+数据库中样本数量不均衡造成的。
3)通过表2和3中5、6两组实验可以看出,在源域为Oulu-CASIA VIS,目标域为Oulu-CASIA NIR上的识别效果要高于在源域为Oulu-CASIA NIR,目标域为Oulu-CASIA VIS上的识别效果,出现这种现象的原因可能是由于Oulu-CASIA VIS和Oulu-CASIA NIR数据库中表情图像使用的采集设备不同,在Oulu-CASIA VIS和Oulu-CASIA NIR数据库中的表情图像分别是通过可见光相机和近红外相机拍摄的,表明模型从由可见光相机拍摄的表情图像上提取的特征要比近红外图像上提取的质量更高。
4)通过对比表2和表3中6组实验可以看出,通过圆形LBP特征提取方法在
5)通过对比表2和3中的6组实验可以看出,SVM在5、6两组实验上的识别效果相对于前4组实验来说有了较大提升。这是因为,Oulu-CASIA VIS和Oulu-CASIA NIR数据库中的样本之间的差异,要小于CK+中样本与Oulu-CASIA VIS和Oulu-CASIA NIR之间的差异。在Oulu-CASIA VIS和Oulu-CASIA NIR中样本的采集对象相同,因此样本间的特征差异相对较小。所以,对于无迁移学习的传统机器学习算法SVM来说,在5、6两组上的识别率相对较好。
为了更加直观地表示各对比算法的识别效果,给出了这5种算法在不同场景下的平均准确率曲线,如图5所示。从图5中可以清晰看出,本文提出的DaL方法在跨域人脸表情识别上的有效性。
Download:
|
|
为了进一步验证提出方法的有效性,本文选择表3中序号为3和5的这一组对比实验进行分析,并给出了在C&V和N&V两种实验场景下各对比算法在6种表情上的识别率混淆矩阵,分别如图6和图7所示。
通过图6和图7可以看出,在CK+作为源域,Oulu-CASIA VIS作为目标域时,在DaL中各种表情的识别率均高于各基准对比算法,并且不同算法在6种表情上的识别率差异相对较大。例如,在DaL中 “惊讶”、“高兴”这2种表情的识别率相对较高,分别为72%、60%,而“悲伤”和“恐惧”这2种表情的识别率较低,分别为36%、32%。
Download:
|
|
结合表2可知,出现这种现象主要是因为在CK+数据库中 “吃惊”表情的样本数量最多,有85张表情图像,而“恐惧”仅有25张表情图像。另外,还可以看到,“愤怒”、“厌恶”和“悲伤”这3种表情比较容易误判,结合图4中各表情样本,出现这种情况原因可能是因为受试者在表达这3种表情时的面部运动变化不大,因此提取的特征较为相似,不易于区分。此外,当源域为Oulu-CASIA NIR,目标域为Oulu-CASIA VIS时,“悲伤”和“恐惧”这2种表情的识别准确率有了大幅提升,平均提高了22%左右,且其他4种表情的识别率也有较大提升。这进一步说明了,数据库中样本数量的多少对跨域人脸表情识别的效果具有一定的影响。但无论CK+和Oulu-CASIA NIR哪个数据库作为源域,DaL的识别准确率均高于各基准对比算法,验证了该算法在跨域人脸表情识别上的有效性。
Download:
|
|
本文提出将一种基于分布对齐的迁移学习方法应用到跨域人脸表情识别中,通过找到一个特征变换矩阵,将源域和目标域样本映射到一个公共子空间,引入无参数的最大均值差异MMD来度量源域和目标域数据之间边缘分布和条件分布的距离,在该子空间中最大化投影后源域和目标域数据方差的同时,联合对齐边缘分布和条件分布,最小化域之间的分布距离,然后对迁移后的特征进行训练得到一个域适应分类器,来对目标域中的数据标签进行预测,与4种基准方法在不同实验场景下的实验结果表明,本文提出的算法在跨域人脸表情识别上具有优势。但是还有一些不足之处,需要进一步的研究:1)对于跨域人脸表情识别来说,实验中的数据集样本数量的多少对于实验效果会产生很大的影响。因此,对于如何建立大样本人脸表情数据库将会是下一步需要进行的工作。2)在本文中对条件分布进行对齐时,由于目标域数据中没有标签数据,因此在实验中通过目标域数据的伪标签来进行对齐。但由于域之间的分布差异问题,这种方法预测的伪标签可能不是很准确。因此,对于在条件分布对齐时目标域中无标签数据的问题,需要进一步探索新方法来解决。
[1] | ZHENG Wenming, TANG Hao, HUANG T S. Emotion recognition from non-frontal facial images[M]//KONAR A, CHAKRABORTY A. Emotion Recognition: A Pattern Analysis Approach. Hoboken, USA: John Wiley & Sons, 2015: 183−213. (0) |
[2] | WANG Yongjin, GUAN Ling, VENETSANOPOULOS A N. Kernel cross-modal factor analysis for information fusion with application to bimodal emotion recognition[J]. IEEE transactions on multimedia, 2012, 14(3): 597-607. DOI:10.1109/TMM.2012.2189550 (0) |
[3] | YAN Jingjie, ZHENG Wenming, XU Guanming, et al. Sparse kernel reduced-rank regression for bimodal emotion recognition from facial expression and speech[J]. IEEE transactions on multimedia, 2016, 18(7): 1319-1329. DOI:10.1109/TMM.2016.2557721 (0) |
[4] | ZENG Zhihong, PANTIC M, ROISMAN G I, et al. A survey of affect recognition methods: audio, visual, and spontaneous expressions[J]. IEEE transactions on pattern analysis and machine intelligence, 2009, 31(1): 39-58. DOI:10.1109/TPAMI.2008.52 (0) |
[5] | CHU W S, DE LA TORRE F, COHN J F. Selective transfer machine for personalized facial expression analysis[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(3): 529-545. DOI:10.1109/TPAMI.2016.2547397 (0) |
[6] | ZHENG Wenming, ZHOU Xiaoyan, ZOU Cairong, et al. Facial expression recognition using kernel canonical correlation analysis (KCCA)[J]. IEEE transactions on neural networks, 2006, 17(1): 233-238. DOI:10.1109/TNN.2005.860849 (0) |
[7] | UDDIN M Z. A local feature-based facial expression recognition system from depth video[M]//DELIGIANNIDIS L, ARABNIA H R. Emerging Trends in Image Processing, Computer Vision and Pattern Recognition. Amsterdam: Elsevier, 2015: 407−419. (0) |
[8] | YU Zhiding, ZHANG Cha. Image based static facial expression recognition with multiple deep network learning[C]//Proceedings of the 2015 ACM on International Conference on Multimodal Interaction. New York, USA: ACM, 2015:433−442. (0) |
[9] | BACCOUCHE M, MAMALET F, WOLF C, et al. Spatio-temporal convolutional sparse auto-encoder for sequence classification[C]//Proceedings of the of British Machine Vision Conference. Guildford, UK: BMVA Press, 2012:12. (0) |
[10] | WANG Hua, NIE Feiping, HUANG Heng, et al. Dyadic transfer learning for cross-domain image classification[C]//IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011:551−556. (0) |
[11] | LUO Jie, TOMMASI T, CAPUTO B. Multiclass transfer learning from unconstrained priors[C]//IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011:1863−1870. (0) |
[12] | ROY S D, MEI Tao, ZENG Wenjun, et al. SocialTransfer: cross-domain transfer learning from social streams for media applications[C]//Proceedings of the 20th ACM international conference on Multimedia. Nara, Japan: ACM, 2012:649−658. (0) |
[13] | WANG Shuhui, JIANG Shuqiang, HUANG Qingming, et al. Multi-feature metric learning with knowledge transfer among semantics and social tagging[C]//Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence: IEEE, 2012:2240−2247. (0) |
[14] | AYTAR Y, ZISSERMAN A. Tabula rasa: model transfer for object category detection[C]//Proceedings of 2011 International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011:2252−2259. (0) |
[15] | GOPALAN R, LI Ruonan, CHELLAPPA R. Domain adaptation for object recognition: an unsupervised approach[C]//2011 International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011:999−1006. (0) |
[16] | GUILLAUMIN M, FERRARI V. Large-scale knowledge transfer for object localization in ImageNet[C]//Proceedings of 2012 IEEE Computer Vision and Pattern Recognition. Providence, USA: IEEE, 2012:3202−3209. (0) |
[17] | LAMPERT C H, NICKISCH H, HARMELING S. Learning to detect unseen object classes by between-class attribute transfer[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, USA: IEEE, 2009:951−958. (0) |
[18] | JHUO I H, LIU D, LEE D T, et al. Robust visual domain adaptation with low-rank reconstruction[C]//2012 IEEE Computer Vision and Pattern Recognition. Providence, USA: IEEE, 2012:2168−2175. (0) |
[19] | LAMPERT C H, KRÖMER O. Weakly-paired maximum covariance analysis for multimodal dimensionality reduction and transfer learning[C]//Proceedings of the 11th European Conference on Computer Vision. Heraklion, Crete, Greece: Springer-Verlag, 2010:566−579. (0) |
[20] | QIU Qiang, PATEL V M, TURAGA P, et al. Domain adaptive dictionary learning[C]//Proceedings of the 12th European Conference on Computer Vision. Florence, Italy: Springer-Verlag, 2012:631−645. (0) |
[21] | DAI Wenyuan, YANG Qiang, XUE Guirong, et al. Boosting for transfer learning[C]//Proceedings of the 24th International Conference on Machine Learning. Corvalis, USA: ACM, 2007:193−200. (0) |
[22] | PAN S J, TSANG I W, KWOK J T, et al. Domain adaptation via transfer component analysis[J]. IEEE transactions on neural networks, 2011, 22(2): 199-210. DOI:10.1109/TNN.2010.2091281 (0) |
[23] | GONG Boqing, SHI Yuan, SHA Fei, et al. Geodesic flow kernel for unsupervised domain adaptation[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, USA: IEEE, 2012:2066−2073. (0) |
[24] | ZHONG Erheng, FAN Wei, PENG Jing, et al. Cross domain distribution adaptation via kernel mapping[C]//Proceedings of the 15th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Paris, France: ACM, 2009. (0) |
[25] | BRUZZONE L, MARCONCINI M. Domain adaptation problems: A DASVM classification technique and a circular validation strategy[J]. IEEE transactions on pattern analysis and machine intelligence, 2010, 32(5): 770-787. DOI:10.1109/TPAMI.2009.57 (0) |
[26] | QUANZ B, HUAN J, MISHRA M. Knowledge transfer with low-quality data: A feature extraction issue[J]. IEEE transactions on knowledge and data engineering, 2012, 24(10): 1789-1802. DOI:10.1109/TKDE.2012.75 (0) |
[27] | LUCEY P, COHN J F, KANADE T, et al. The extended Cohn-Kanade dataset (CK+): a complete dataset for action unit and emotion-specified expression[C]//Proceedings of 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition-Workshops. San Francisco, USA: IEEE, 2010: 94−101. (0) |
[28] | KANADE T, COHN J F, TIAN Yingli. Comprehensive database for facial expression analysis[C]//Proceedings of the 4th IEEE International Conference on Automatic Face and Gesture Recognition. Grenoble, France: IEEE, 2020: 46−53. (0) |
[29] | ZHAO Guoying, HUANG Xiaohua, TAINI M, et al. Facial expression recognition from near-infrared videos[J]. Image and vision computing, 2011, 29(9): 607-619. DOI:10.1016/j.imavis.2011.07.002 (0) |
[30] | HUANG J, GRETTON A, BORGWARDT K, et al. Correcting sample selection bias by unlabeled data[J]. Advances in neural information processing systems, 2006, 19: 601-608. (0) |
[31] | SUGIYAMA M, NAKAJIMA S, KASHIMA H, et al. Direct importance estimation with model selection and its application to covariate shift adaptation[C]//Proceedings of 21st Annual Conference on Advances in Neural Information Processing Systems. Vancouver, Canada: NIPS, 2008: 1433−1440. (0) |
[32] |
刘斌, 米强, 徐岩. LBP和MB-LBP加权融合的人脸识别[J]. 计算机工程与设计, 2018, 39(2): 551-556. LIU Bin, MI Qiang, XU Yan. Face recognition based on weighted fusion of LBP and MB-LBP features[J]. Computer engineering and design, 2018, 39(2): 551-556. (0) |