文章快速检索 高级检索

1. 西南交通大学 信息科学与技术学院，四川 成都 610031;
2. 重庆邮电大学 计算机科学与技术研究所，重庆 400065

Face recognition based on linear representation model without residual estimation
LIU Xunli1 , GONG Xun1 , WANG Guoyin1,2
1. School of Information Science and Technology, Southwest Jiaotong University, Chengdu 610031, China ;
2. Institute of Computer Science and Technology, Chongqing University of Posts and Telecommunications, Chongqing 400065, China
Abstract: The Dantzig selector constrains the representation model with Lnorm of the related vector between the samples and residuals, so as a result it is more convenient and more adaptive. Traditional linear representation dealing with residuals depends on specific residual likelihood estimation of residual. In order to overcome this defect, A new face recognition algorithm based on the Dantzig selector is proposed, applying the concept of dealing with the residual and a high-efficiency solution to the Dantzig selector is also studied. Experiments conducted with commonly used face databases show that the Dantzig selector achieves good results with face recognition without residual estimation.
Key words: linear representation     residual estimation     likelihood estimation     Dantzig selector model     face recognition

 图 1 稀疏表示人脸识别示意图(误差未知) Fig. 1 Schematic diagram of face recognition with sparse representation (unknown residual)

1 线性表示模型

1.1 岭回归模型

a是一个大于零的调节参数，基于该模型，Zhang等[8]提出一种基于最小二乘约束协同表达分类方法(collaborative representation classification based on regularized least square, CRC-RLS)。作者深入分析了协同表达在分类中的作用原理，指出SRC是协同表达的一种特殊形式，并将其用于人脸识别，他们把测试样本看作是所有训练样本的协同表达结果，通过协同表达系数进行分类。

1.2 LASSO模型

Tibshiran[9]提出了最小绝对值收缩和选择算子(least absolute shrinkage and selection operator，LASSO)，可以看作是L1惩罚函数下的最小二乘估计，LASSO的定义式为

1.3 DS(Dantzig selector)模型

 (1)

1.4 DS模型

1.4.1 DS模型的对偶形式

DS模型对一些给定的τ>0，PD－Pursuit算法利用DS模型原始和对偶目标函数的强对偶性，首先给出DS模型的对偶形式，对于任意一个经定的τ，推导出其原始解和对偶形式的解必须要满足的优化条件。最终通过改变τ的值，可以建立起DS模型的解。式(1)的对偶形式定义为

 (2)

 (3)

 (4)
 (5)

1)XΓλT(*Y)=τzλ

2)XΓλT*=－zβ

3)｜xγT(*Y)｜ < τγΓλ

4)｜xγT*｜ < 1γΓβ

ΓβΓλ分别是β*λ*的支撑集，zβzλ分别是β*λ*在各自支撑集下的符号，其值为±1或0，x表示活动集下对应的X子集，在任意给定τ值，一对原始-对偶解(β*,λ*)在它的支撑集和符号序列下, 1)~4)是该解惟一的充分必要条件。因此求式(1)可以转化为求满足1)~4)一对原始-对偶解。

 (6)
 (7)

1.4.2 原始向量更新

 (8)

1.4.3 对偶向量更新

 (9)

1.4.4 方向更新

 (10)

 (11)

repeat：

kk+1原始更新：

βk+1=βk+δ∂β, τk+1=τkδ

If δ=δthen

ΓβΓβiiΓβ中移去并更新Γβ

ΓλΓλγ选择一个索引号γ并从Γλ移出；zγ=zλ(γ)；

Else

Γλ=Γλ∪{i+}把i+存入Γλ但不更新Γλ

zλ=sign[XΓλT(k+1Y)]；

γ=i+

zγ=zλ(γ)；

End if

If δ=δ & sign [ak(i)]=sign [bk(i)]then

∂λ←－∂λ

bk←－bk

End if

λk+1=λk+δ∂λ

If θ=θthen

ΓλΓλj将索引jΓλ中移去更新Γλ

Else

ΓβΓβ∪{j+}把j+存入Γβ并更新Γβ

zβ=sign[XΓβT Xλk+1];

End if

2 基于模型的人脸识别算法

1)归一化X的每一列和Y

2)利用PD-Pursuit算法求解式(5)的稀疏解β

3)计算每一类训练样本上的重构误差：

4)根据重构误差判断测试样本的类别：

3 实验结果及分析

3.1 Extend Yale B人脸库的实验

Extended Yale B人脸库由38个不同的个体共2 414张正面人脸图像组成。这些图像是在不同的光照条件下采集的，图 2是该库的人脸图像。样本的原始大小为192×168, 实验中，所有的图像进行剪裁和归一化到64×56的统一分辨率。与文献[4]的实验方案一样, 本文实验中也对每个不同的个体随机选取一半的人脸作为训练样本，剩下的样本作为测试样本。所有样本按列连接成一个列向量大小为3 584维, 构成了一个3 584×1 207维的训练字典，对于这样一个高维度的矩阵而言，计算量非常大，因此，实验采用文献[16]将样本的维数(每一列的维数)分别降至30维、54维、120维、300维和504维的情况下，与目前传统的最近邻分类器(nearest neighbor, NN)[17]基于Lasso模型稀疏表示的人脸识别算法SRC[4]以及CRC-RLS[8]进行对比，其中CRC-RLS采用作者公布代码(http://www4.comp.polyu.edu.hk/~cslzhang/code/)。实验中，SRC算法中Lasso模型参数选取α=1E-3, PD-Pursuit算法迭代停止条件选取τ=lE-5。

 图 2 Extended Yale B人脸库图像 Fig. 2 Face image of Extended Yale B face database

 维数 NN SRC CRC-RLS DS-SRC 30 0.645 4 0.881 5 0.733 7 0.883 2 54 0.803 4 0.929 9 0.872 3 0.931 6 120 0.863 6 0.964 1 0.954 1 0.967 4 300 0.903 0 0.968 3 0.964 1 0.977 4 504 0.909 2 0.966 6 0.977 5 0.986 6

3.2 AR人脸库上的实验

AR人脸库包含了126个不同个体，每个不同个体采集了26张正面人脸图像分辨率为165×120，人脸图像在不同的光照条件，表情变化，以及脸部遮挡，墨镜等面部伪装的情况下采集，部分样本如图 3所示。实验中每张图像经过归一化处理为60×43的统一分辨率。

 图 3 AR人脸库图像 Fig. 3 Face image of AR face database

AR人脸库较之于Extend Yale B人脸库难度增加了，除了光照变化外，还有表情的变化，此外，每一类的训练样本量减少的同时类别数却增加。实验中选取它达到一个子集，子集中包含了100个个体，其中男女各个50人共1 400张人脸图像，随机选取其中7张作为训练集，其他作为测试样本。所有样本按列连接成一个列向量大小为2 580维, 构成的训练字典大小为2 580×700维，与上一个实验一样，同样进行PCA降维至30维、54维、120维、300维和504维，参数和上一个实验设定一样，进行几种方法的识别率比较。实验结果如表 2。可以看出，本文方法在各种维数下比SRC识别效果要好，本文模型对表情变化也具有很好的鲁棒性。

 维数 NN SRC CRC-RLS DS-SRC 30 0.6205 0.7282 0.6438 0.7382 54 0.6777 0.8169 0.8026 0.8212 120 0.7034 0.8913 0.9041 0.9070 300 0.7131 0.9056 0.9255 0.9285 504 0.7230 0.9099 0.9216 0.9227

3.3 图像遮挡和噪声的鲁棒性实验

 图 4 遮挡线性表示示意图(误差未知) Fig. 4 Schematic diagram of linear representation for Occlusion (unknown residual)
 图 5 噪声线性表示示意图(误差未知) Fig. 5 Schematic diagram of linear representation for corruption (unknown residual)
 图 6 遮挡图像，依次为10%~50%遮挡比例 Fig. 6 Occlusion image, successively occluded 10%~50%
 图 7 噪声污染图像，依次为10%~90%噪声比例 Fig. 7 Noise image, successively noised 10%~90%

 图 8 遮挡鲁棒性实验结果 Fig. 8 Experiment Results of robust for occlusion
 图 9 噪声鲁棒性实验结果 Fig. 9 Experiment results of robust for noise

DS模型利用了测试样本矩阵和线性表示残差的内积来表示同一个个体的训练样本之间的相关性进行约束。这种变量选择机制避免了基于最小二乘估计的特定的似然函数的假设。只关心测试样本和训练样本库中的相关性，而通常不管是在实验中还在实际应用中，训练样本都是经过严格预处理，因此不需要对残差进行类似于添加一个抗遮挡的噪声编码, 本文的方法在取得了比SRC加入噪声编码后更好的实验结果，说明本文所采用模型适应性更强。

4 结束语

DS模型利用了测试样本矩阵和线性表示残差的内积来表示同一个个体的不同训练样本之间的相关度, 再利用L这种具有选择功能的矩阵的范数，选择出最大的相关度的训练样本出来，对其进行约束。这样一个相关性选择的思路即克服了传统线性模型对残差的特定似然估计的要求，使得线性模型更具有适用性，处理噪声更方便, 同时通过L1范数约束保证了解的稀疏性，便于分类。因此，在人脸识别中，即便是训练样本存在相似度较高的个体，也能通过相关度最大进行区分。测试图像有噪声污染等高难度的情况下，不需要特殊噪声编码，也能有效地进行识别，实验证明了本文提出的DS-SRC算法取得了良好的识别效果。

 [1] ZHAO W, CHELLAPPA R, PHILLIPS P J, et al. Face recognition: a literature survey[J]. ACM Computing Surveys , 2003, 35 (4) : 399-458 DOI:10.1145/954339 [2] DONOHO D L. Compressed sensing[J]. IEEE Transactions on Information Theory , 2006, 52 (4) : 1289-1306 DOI:10.1109/TIT.2006.871582 [3] MAIRAL J, ELAD M, SAPIRO G. Sparse representation for color image restoration[J]. IEEE Transactions on Image Processing , 2008, 17 (1) : 53-69 DOI:10.1109/TIP.2007.911828 [4] WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence , 2009, 31 (2) : 210-227 DOI:10.1109/TPAMI.2008.79 [5] CANDES E, TAO T. The Dantzig selector: statistical estimation when p is much larger than n[J]. The Annals of Statistics , 2007, 35 (6) : 2313-2351 DOI:10.1214/009053606000001523 [6] 王大荣, 张忠占. 线性回归模型中变量选择方法综述[J]. 数理统计与管理 , 2010, 29 (4) : 615-627 WANG Darong, ZHANG Zhongzhan. Variable selection for linear regression models: a survey[J]. Journal of Applied Statistics and Management , 2010, 29 (4) : 615-627 [7] BOYD S, VANDENBERGHE L. Convex optimization[M]. Cambridge: Cambridge University Press, 2004 . [8] ZHANG L, YANG M, FENG X C. Sparse representation or collaborative representation: which helps face recognition[C]//IEEE International Conference on Computer Vision. Barcelona, Spain, 2011: 471-478. [9] TIBSHIRANI R. Regression shrinkage and selection via the lasso[J]. Journal of the Royal Statistical Society , 1996, 58 (1) : 267-288 [10] YANG A Y, SASTRY S S, GANESH A, et al. Fast ℓ1-minimization algorithms and an application in robust face recognition: a review[C]//IEEE International Conference on Image Processing, Hong Kong, China, 2010: 1849-1852. [11] MALIOUTOV D M, CETIN M, WILLSKY A S. Homotopy continuation for sparse signal representation[C]//IEEE International Conference on Acoustics, Speech, and Signal Processing. NewYork, USA, 2005: 733-736. [12] CANDES E, TERENCE TAO. Decoding by linear programming[J]. IEEE Transactions on Information Theory , 2005, 51 (12) : 4203-4215 DOI:10.1109/TIT.2005.858979 [13] ASIF M S. Primal dual pursuit: A homotopy based algorithm for the Dantzig selector[D]. Atlanta: Georgia Institute of Technology, 2008. [14] GEORGHIADES A S, BELHUMEUR P N, KRIEGMAN D J. From few to many: illumination cone models for face recognition under variable lighting and pose[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence , 2001, 23 (6) : 643-660 DOI:10.1109/34.927464 [15] MARTINEZ A, BENAVENTE R. The AR face database [R]. Barcelona, Spain. 1998. [16] TURK M, PENTLAND A. Face recognition using eigenfaces[C] //IEEE Computer Society Conference on Proceedings in Computer Vision and Pattern Recognition. Hawaii, USA, 1991: 586-591.
DOI: 10.3969/j.issn.1673-4785.201309065

0

#### 文章信息

LIU Xunli, GONG Xun, WANG Guoyin

Face recognition based on linear representation model without residual estimation

CAAI Transactions on Intelligent Systems, 2014, 9(3): 285-291
http://dx.doi.org/10.3969/j.issn.1673-4785.201309065