«上一篇
文章快速检索     高级检索
下一篇»
  智能系统学报  2019, Vol. 14 Issue (5): 974-981  DOI: 10.11992/tis.201809020
0

引用本文  

李静, 陈秀宏. 基于竞争性协同表示的局部判别投影特征提取[J]. 智能系统学报, 2019, 14(5): 974-981. DOI: 10.11992/tis.201809020.
LI Jing, CHEN Xiuhong. Competitive collaborative representation-based local discriminant projection for feature extraction[J]. CAAI Transactions on Intelligent Systems, 2019, 14(5): 974-981. DOI: 10.11992/tis.201809020.

基金项目

江苏省研究生科研创新计划项目(KYCX17_1500).

通信作者

李静.E-mail: 944651524@qq.com

作者简介

李静,女,1994年生,硕士研究生,主要研究方向为数字图像处理、模式识别;
陈秀宏,男,1964年生,教授,主要研究方向为数字图像处理和模式识别、目标检测与跟踪、优化理论与方法。发表学术论文120余篇

文章历史

收稿日期:2018-09-13
网络出版日期:2018-12-25
基于竞争性协同表示的局部判别投影特征提取
李静 , 陈秀宏     
江南大学 数字媒体学院,江苏 无锡 214000
摘要:特征提取算法中利用样本间的协同表示关系构造邻接图只考虑所有训练样本的协同能力,而忽视了每一类训练样本的内在竞争能力。为此,本文提出一种基于竞争性协同表示的局部判别投影特征提取算法(competitive collaborative repesentation-based local discrininant projection for feature extraction,CCRLDP),该算法利用基于具有竞争性协同表示的方法构造类间图和类内图,考虑到邻接图中各类型系数的影响,引入保留正表示系数的思想稀疏化邻接图,通过计算类内散度矩阵和类间散度矩阵来刻画图像的局部结构并得其最优投影矩阵。在一些数据集上的实验结果表明,相比同类基于局部判别投影的特征提取算法,该算法具有很高的识别率,并在噪声和遮挡上具有良好的鲁棒性,该算法能有效地提高图像的识别效率。
关键词特征提取    协同表示    模式识别    正系数    竞争性    鲁棒性    局部结构    人脸图像    
Competitive collaborative representation-based local discriminant projection for feature extraction
LI Jing , CHEN Xiuhong     
School of Digital Media, Jiangnan University, Wuxi 214000, China
Abstract: The feature extraction algorithm uses the cooperative representation relation between samples to construct the adjacency graph, which only considers the synergy of all training samples and ignores the competitiveness of each type of training sample. Therefore, based on competitive cooperative representation, this study proposes a local discriminant projection feature extraction algorithm and further constructs between-class and within-class graphs. Considering the influence of each type of coefficient in the adjacency graph, we introduce the idea of retaining the positive representation coefficient in the sparse adjacency graph. The local structure of the image is characterized by calculating the within-class and between-class scatter matrices; furthermore, the optimal projection matrix is obtained. The experimental results of some data sets show that compared with similar feature extraction algorithms based on local discriminant projection, the algorithm exhibits good recognition effect and good robustness in noise and occlusion and effectively increases the image recognition efficiency.
Key words: feature extraction    collaborative representation    pattern recognition    positive coefficient    competitive    robustness    local structure    face image    

特征提取(或降维)[1-3]在计算机视觉和模式识别领域起着非常重要的作用,它通过把原始数据投影到低维空间而得到最具代表性的特征,其中主成分分析(PCA)[4]和线性判别分析(LDA)[5]是两个最著名的算法,但是它们很难确定数据的流形结构。

为获得数据的局部结构,出现了许多基于图的降维算法[6-12],包括局部保持投影(LPP)[6]、边缘判别分析(MFA)[7]和局部判别嵌入(LDE)[8]等。LPP是一种无监督学习算法,它忽视了数据的判别结构;而MFA和LDE则是有监督学习,它们试图找到一个投影子空间,在该子空间中同类样本点相互靠近,而不同类样本点相互分离,因此它们不仅考虑了数据的邻域结构同时也考虑了数据的判别结构。在基于图的流形学习中,关键是如何通过构造图来获得数据的本质结构。图的构造通常包括两步:第一步是决定样本间的近邻关系,第二步是为每对样本设置权重。通常,可通过 $k$ 近邻和 $\varepsilon $ -球邻域确定样本的近邻,但此类算法均依赖于参数 $k$ $\varepsilon $ 的选择。

基于协同表示的分类(CRC)[13]近年来得到了广泛而深入的研究,它使用所有的训练样本来协同表示测试样本,其表示系数描述了相应训练样本对测试样本的贡献,再依据残差对样本进行分类。Yuan等[14]提出了基于分类的协同竞争表示(CCRC),在计算各训练样本表示系数的同时确定每类训练样本的竞争能力,从而实现对样本的分类,该算法能很好地权衡训练样本的协同表示和竞争表示之间的关系。Huang等[15]提出了基于协同表示的局部判别投影(CRLDP),它利用协同表示获得表示系数构造样本的关系图,克服了近邻参数设置难的问题。Yang等[16]给出的基于协同表示的投影(CRP)是通过L2范数最小化问题求表示系数,但是CRP是无监督的。为了充分地利用标签信息来提高分类性能,Hua等[17]又提出了基于协同表示重构的投影(CRRP),虽然该算法是有监督的,但是它仅使用了全局信息而忽略了各类别之间的竞争性。

在以上基于CRC的学习算法中,表示系数有正有负,其中正表示系数描述了训练样本对测试样本的正面作用,对重构样本呈正相关性,而负系数则起着负面作用,对重构样本呈负相关性。由于正表示系数可以提取样本的主要特征,且具有一定的判别能力,故本文利用正表示系数来构造类间图和类内图,然后在考虑每类样本的竞争性以及样本标签信息的基础上,给出一种基于竞争性协同表示的局部判别投影特征提取(CCRLDP)。该算法不仅考虑了样本间的协同能力和每类样本的竞争性,还利用了样本的类别信息,因此可在一定程度上提高识别效率。

1 协同分类与局部判别算法

给定一组样本 ${{X}} = [{{{x}}_1}\;{{{x}}_2} \cdots \;{{{x}}_n}]$ ,每个样本 ${{{x}}_i} \in {{\bf{R}}^d}$ $(i = 1,2,\cdots ,n)$ $n$ 维列向量, $d$ 为每个样本的维数;第 $c$ 类的训练样本集 ${{{X}}_c} = [{{x}}_1^c\;{{x}}_2^c\;\cdots \;{{x}}_{{n_c}}^c]$ ,其中: ${n_c}$ 为第 $c$ 类样本数; $c = 1,2,\cdots ,C$ $n = \displaystyle\sum\limits_{c = 1}^C {{n_c}} $ 为样本总数。

1.1 基于协同表示的分类(CRC)

CRC(collaborative representation based classification)的目标是使用所有的训练样本来协同地表示测试样本,其表示系数可通过以下优化问题求得:

$\mathop {\min }\limits_{\rm{\alpha}} ||{{y}} - {{X\alpha }}||_2^2 + {\textit{λ}} ||{{\alpha }}||_2^2$ (1)

式中: ${\textit{λ}}$ 是正则化参数; ${{\alpha }} = {[{{\rm{\alpha}} _1}\;{{\rm{\alpha}} _2}\;\cdots \;{{\rm{\alpha}} _N}]^{\rm{T}}} \in $ $ {{\bf R}^{N \times 1}}$ 为测试样本 ${{y}}$ 的表示系数列向量。式(1)的最优解为 ${{{\alpha }}^*} = {({{{X}}^{\rm{T}}}{{X}} + {\textit{λ}} I)^{ - 1}}{{{X}}^{\rm{T}}}{{y}}$ , 其中 ${{I}}$ 是单位阵。于是第 $c$ 类的残差为 ${r_c} = ||{{y}} - {{{X}}_c}{{\alpha }}_c^*|{|_2}$ ,这里的 $\alpha _c^*$ ${{{\alpha}}^*}$ 中与第 $c$ 类样本对应的表示系数。从而,测试样本 $y$ 的类标签为 ${\rm{label}}(y) = \mathop {\arg \min }\limits_c {r_c}$

1.2 局部判别嵌入的投影

在LDE(local discriminant embedding)中, ${{G}} = \{ {{X}},{{W}}\} $ ${{{G}}^{}}' = \{ {{X}},{{{W}}^{}}'\} $ 分别表示同类样本与异类样本的邻接图,其中顶点集 ${{X}}$ 对应训练样本集, ${{W}}$ ${{{W}}^{}}'$ 分别表示同类样本之间和异类样本之间相似性的权矩阵,其定义分别为

$ {{{W}}_{ij}} = \left\{ {\begin{array}{*{20}{l}} {\exp [ - ||{{{x}}_i} - {{{x}}_j}|{|^2}/t]},\;\;{{l_i} = {l_j},{{{x}}_i} \in {{{N}}_w}({{{x}}_j}){\text{或}}}\\ \qquad\qquad\qquad\qquad{{{{x}}_j} \in {{{N}}_w}({{{x}}_i})}\\ 0,\;\;{{\text{其他}}} \end{array}} \right. $ (2)

式中: $||{{{x}}_i} - {{{x}}_j}||$ 表示 ${{{x}}_i}$ ${{{x}}_j}$ 之间的欧氏距离; $t > 0$ ${l_i}$ ${{{x}}_i}$ 的类标签; ${{{N}}_w}({{{x}}_i})$ 表示与 ${{{x}}_i}$ 同类的 $k$ 个近邻组成的集合。

$ {{W'}}_{ij}= \left\{ {\begin{array}{*{20}{l}} {\exp [ - ||{{{x}}_i} - {{{x}}_j}|{|^2}/t]},\;\;{{l_i} \ne {l_j},{{{x}}_i} \in {{{N}}_b}({{{x}}_j}){\text{或}}}\\ \qquad\qquad\qquad\qquad{{{{x}}_j} \in {{{N}}_b}({{{x}}_i})}\\ 0,\;\;{{\text{其他}}} \end{array}} \right. $ (3)

式中 ${{{N}}_b}({{{x}}_i})$ 表示与 ${{{x}}_i}$ 异类的 ${k^{}}'$ 个近邻组成的集合。根据图嵌入理论,希望投影后样本之间的近邻关系得到保持。令 ${{P}} \in {{\bf R}^{m \times d}}(d < m)$ 表示投影矩阵,定义类内离散度 ${S_w}$ 和类间离散度 ${S_b}$ 分别为

$ {S_w} = \sum\limits_{ij} {||{{{P}}^{\rm{T}}}{{{x}}_i} - {{{P}}^{\rm{T}}}{{{x}}_j}|{|^2}} {W_{ij}} = 2{\rm{tr}}\{ {{{P}}^{\rm{T}}}{{X}}({{D}} - {{W}}){{{X}}^{\rm{T}}}{{P}}\} $ (4)
${S_b} = \sum\limits_{ij} {||{{{P}}^{\rm{T}}}{{{x}}_i}} - {{{P}}^{\rm{T}}}{{{x}}_j}|{|^2}{W'_{ij}} = 2{\rm{tr}}\{ {{{P}}^{\rm{T}}}{{X}}({{D}}' - {{W}}'){{{X}}^{\rm{T}}}{{P}}\} $ (5)

式中: ${{\rm tr}}( \cdot )$ 表示矩阵的迹; ${{D}}$ ${{D}}'$ 是对角矩阵,其主对角元素为 ${D_{ii}} = \displaystyle\sum\limits_j {{W_{ij}}} $ ${D'_{ii}} = \displaystyle\sum\limits_j {{{W'}_{ij}}} $ 。LDEP的目标是求投影矩阵 ${{P}}$ 使得类间离散度最大化的同时类内离散度也达到最小化,它可表示为以下优化问题:

$\mathop {\max }\limits_{{P}} \frac{{{S_b}}}{{{S_w}}} = \frac{{{\rm{tr}}\{ {{{P}}^{\rm{T}}}{{X}}({{{D}}^{}}' - {{{W}}^{}}'){{{X}}^{\rm{T}}}{{P}}\} }}{{{\rm{tr}}\{ {{{P}}^{\rm{T}}}{{X}}({{D}} - {{W}}){{{X}}^{\rm{T}}}{{P}}\} }}$ (6)
2 基于竞争性协同表示的局部判别投影(CCRLDP)

在LDEP算法中,其近邻参数 $k$ $k'$ 以及参数 $t$ 需要手工选取。CRLDP[15]利用基于协同表示的表示系数构造样本关系图,从而克服了近邻参数设置难的问题。但是,该算法在对样本 ${{{x}}_i}$ 重构时使用的是全局信息,而忽略了各类别之间的竞争性。另外,在基于协同的表示中,如果一个样本 ${{{x}}_i}$ 与另一个样本 ${{{x}}_j}$ 属于同一类,那么在重构 ${{{x}}_i}$ ${{{x}}_j}$ 的贡献应该较大,即 ${{{x}}_j}$ 将会有一个较大的系数,因此在构造图时可以尽量保留贡献大的系数(本文保留正系数)。基于以上分析,本文提出的基于竞争性协同表示的局部判别投影(CCRLDP)算法,首先建立基于竞争性协同表示的学习模型,然后从学习到的表示系数中选择正表示系数,并构造类间分离性图和类内紧致性图,进而获得类间离散度和类内离散度。此算法不仅克服了LDEP算法中近邻参数设置难的问题,而且还利用了样本的局部信息和标签信息,因而进一步提高了识别效率与性能。

2.1 局部结构图的构造

为了能充分反映样本重构时不同类样本的差异性,对每个训练样本 ${{{x}}_i}$ 建立具有竞争性的协同表示学习模型,即

$ \mathop {\min }\limits_{{{{w}}_i}} \{ ||{{{x}}_i} - {{X}}{{{w}}_i}||_2^2 + {\textit{λ}}{\rm{||}}{{{w}}_i}||_2^2 + {{\textit{λ}}_1}\sum\limits_{c = 1}^C {||{{{x}}_i} - {{{X}}_c}{{w}}_i^c||_2^2} \} $ (7)

式中: ${{{w}}_i} = {[{w_{i,1}}\;{w_{i,2}}\;\cdots \;{w_{i,i - 1}}\;0\;{w_{i,i + 1}}\;\cdots \;{w_{i,n}}]^{\rm{T}}} \in {{\bf{R}}^n}$ 表示重构样本 ${{{x}}_i}$ 的系数列向量; ${w_{ij}}(i \ne j)$ 表示样本 ${{{x}}_j}$ 对于重构 ${{{x}}_i}$ 所做的贡献; ${{w}}_i^c \in {{\bf{R}}^{{n_c}}}$ 表示 ${{{w}}_i}$ 中与第 $c$ 类样本对应的系数组成的 ${n_c}$ 维列向量。在式(7)中,第1项和第2项表示使用样本的协同表示关系重构每个样本,第3项是增加的约束项(用来保持每类样本的竞争能力),而参数 ${{\textit{λ}} _1}$ 是用来平衡协同表示和竞争表示的正则化参数。通过对式(7)求偏导得 ${{{w}}_i}$ 的最优解为

${{w}}_i^* = (1 + {{\textit{λ}} _1}){({{{X}}^{\rm{T}}}{{X}} + {\textit{λ}} {{I}} + {{\textit{λ}}_1}{{M}})^{ - 1}}{{{X}}^{\rm{T}}}{{{x}}_i}$ (8)

其中 ${{M}}$ 定义为

${{M}} = \left[ {\begin{array}{*{20}{c}} {{{X}}_1^{\rm{T}}{{{X}}_1}}&0&{\cdots }&0 \\ 0&{{{X}}_2^{\rm{T}}{{{X}}_2}}&{\cdots }&0 \\ \vdots & \vdots &{}& \vdots \\ 0&0& \cdots &{{{X}}_c^{\rm{T}}{{{X}}_c}} \end{array}} \right]$ (9)

令系数矩阵 ${{W}} = [{{w}}_1^{\rm{*}}\begin{array}{*{20}{c}} {} \end{array}{{w}}_2^{\rm{*}}\quad \cdots \begin{array}{*{20}{c}} {} \end{array}{{w}}_n^*] \in {{\bf{R}}^{n \times n}}$ 。注意到,重构系数越大说明两样本之间的相似性越高,而正系数表示样本与重构样本之间是正相关的,负系数表示样本与重构样本之间是负相关的,所以本文利用样本与重构样本之间的正相关性对系数进行处理,突出其正表示系数的作用。同时为了使样本的局部几何结构在投影空间中得到保持,构造类内紧致图和类间分离图,这里的类内紧致图用来衡量同类样本之间的紧致性,类间分离图则用来衡量不同类样本之间的分离性。本文定义类内紧致图和类间分离图的相似性权矩阵 ${{U}}$ ${{U}}'$ ,两矩阵元素分别定义为

$ {U_{ij}} = \left\{ {\begin{array}{*{20}{l}} {w_{ij}^*},\;{{l_i} = {l_j}{\text{且}}w_{ij}^* > 0}\\ 0,\;{{\text{其他}}} \end{array}} \right. $ (10)
$ U_{ij}^{'} = \left\{ {\begin{array}{*{20}{l}} {w_{ij}^*},\;{{l_i} \ne {l_j}{\text{且}}w_{ij}^* > 0}\\ 0,\;{{\text{其他}}} \end{array}} \right. $ (11)

式(10)和式(11)表示保留样本间具有正相关性的系数,以此来得到两个稀疏矩阵 ${{U}}$ ${{U}}'$ ,这在一定程度上提高了算法的判别能力。由于样本 ${{{x}}_i}$ 对重构样本 ${{{x}}_j}$ 所做的贡献不同于样本 ${{{x}}_j}$ 对重构样本 ${{{x}}_i}$ 所做的贡献,所以权矩阵 ${{U}}$ ${{U}}'$ 一般情况下是不对称的。

2.2 CCRLDP的优化模型与算法

根据类内紧致图和类间分离图的权矩阵,定义类内紧致性和类间分离性:

$\sum\limits_{i = 1}^n {\sum\limits_{j = 1}^n {||{{{P}}^{\rm T}}{{{x}}_i} - {{{P}}^{\rm T}}{{{x}}_j}|{|^2}{U_{ij}}} } = {\rm{tr}}({{{P}}^{\rm T}}{\overline {{S}} _w}{{P}})$ (12)
$\sum\limits_{i = 1}^n {\sum\limits_{j = 1}^n {||{{{P}}^{\rm T}}{{{x}}_i} - {{{P}}^{\rm T}}{{{x}}_j}|{|^2}{{U'}_{ij}}} } = {\rm{tr}}({{{P}}^{\rm T}}{\overline {{S}} _b}{{P}})$ (13)

式中 ${\overline {{S}} _w}$ ${\overline {{S}} _b}$ 分别表示类内紧致性矩阵和类间分离性矩阵,即

$ {\overline {{S}} _w} = \sum\limits_{i = 1}^n {\sum\limits_{j = 1}^n {({{{x}}_i} - {{{x}}_j}){{({{{x}}_i} - {{{x}}_j})}^{\rm T}}{U_{ij}}} } = {{X}}({{D}} - {{H}}){{{X}}^{\rm T}} $ (14)
$ {\overline {{S}} _b} = \sum\limits_{i = 1}^n {\sum\limits_{j = 1}^n {({{{x}}_i} - {{{x}}_j}){{({{{x}}_i} - {{{x}}_j})}^{\rm T}}{{U'}_{ij}}} } = {{X}}({{D}}' - {{H}}'){{{X}}^{\rm T}} $ (15)

式中: ${{H}} = {{U}} + {{{U}}^{\rm T}}$ ${{H}}' = {{U}}' + {{{U}}'^{\rm T}}$ ${{D}}$ ${{D'}}$ 均为对角矩阵,其对角元分别为 ${D_{ii}} = \displaystyle\sum\limits_{j = 1}^n {{U_{ij}}} + \displaystyle\sum\limits_{j = 1}^n {{U_{ji}}} $ ${D'_{ii}} = $ $ \displaystyle\sum\limits_{j = 1}^n {{{U'}_{ij}}} + \displaystyle\sum\limits_{j = 1}^n {{{U'}_{ji}}} $

基于竞争性协同表示的局部判别投影法的目标就是找到一个最优投影矩阵,使得投影后样本的类间分离性极大而类内紧致性极小,即优化模型为

$\mathop {\max }\limits_P \frac{{{\rm{tr}}({{{P}}^{\rm T}}{{\overline {{S}} }_b}{{P}})}}{{{\rm{tr}}({{{P}}^{\rm T}}{{\overline {{S}} }_w}{{P}})}}$ (16)

${{{p}}_1},{{{p}}_2},\cdots ,{{{p}}_d}$ 为广义特征方程 ${\overline {{S}} _b}{{p}} = {\textit{λ}} {\overline {{S}} _w}{{p}}$ 的前 $d$ 个最大特征值对应的特征向量,则最优投影矩阵为 ${{{P}}^*} = [{{{p}}_1}\;{{{p}}_2}\;\cdots \;{{{p}}_d}]$

假设训练样本 ${{X}} = [{{{x}}_1}\;{{{x}}_2}\;\cdots \;{{{x}}_n}] \in {{\bf{R}}^{m \times n}}$ 和每个样本的标签 ${l_i}(i = 1,2,\cdots ,n)$ ,本文算法的实现步骤为:

1)使用PCA降维;

2)求解式(7)或由式(8)得第 $i$ 个训练样本的表示系数向量,再进行修正得到分量均非负的向量 ${{{w}}_i}$

3)由式(10)和式(11)得权矩阵 ${{U}}$ ${{U}}'$

4)由式(14)和式(15)计算类内紧致性矩阵 ${{\bar{ S}}_w}$ 和类间分离性矩阵 ${{\bar{ S}}_b}$

5)求广义特征方程 ${\overline {{S}} _b}{{p}} = {\textit{λ}} {\overline {{S}} _w}{{p}}$ 的前 $d$ 个最大特征值对应的特征向量 ${{{p}}_1},{{{p}}_2},\cdots ,{{{p}}_d}$ ,从而得最优投影矩阵 ${{{P}}^*} = [{{{p}}_1}\;{{{p}}_2}\;\cdots \;{{{p}}_d}]$

在本文算法中,步骤2)求解 ${({{{X}}^{{\rm{T}}}}{{X}} +{\textit{λ}} {{I}} + {{\textit{λ}}_1}{{M}})^{ - 1}}$ ${{{X}}^{\rm T}}{{X}}$ 的计算复杂度为 $O({n^3} + d{n^2})$ ,其中 $d$ 为样本维数, $n$ 为样本数;步骤4)的计算复杂度为 $O(2d{n^2})$ ,而步骤5)特征分解的计算复杂度为 $O({d^3})$ 。所以算法的复杂性为 $O({n^3} + 3d{n^2} + {d^3})$ ,本文算法复杂度主要在于对矩阵求逆,本文算法适用于解决小样本问题。

3 实验

为了验证算法的性能,本节选择数据集FERET、AR和Binalpha进行实验,并将本文CCRLDP算法与LPP、CRP、CRRP、CCRC和CRLDP等算法做对比,说明该算法的有效性和优越性。

3.1 数据集

FERET人脸数据集包含200个人的1 400幅人脸图像(每人有7幅图像),分别在不同光照、姿态和表情变化下采集的,每幅图像的大小为32×32。实验中,对图像加入密度为0.03的椒盐噪声。图1为样本集中部分人脸图像。

Download:
图 1 加椒盐噪声FERET数据集部分样本 Fig. 1 Partial sample of the FERET data set with salt and pepper noise

AR人脸数据集包含126人的4 000多幅人脸图像,它们分别是在不同光照、表情和部分遮挡情况下采集的。实验时随机选取40人,每人20幅图像,每幅图像的大小为32×32,并对图像分别加入大小为5×5、10×10和15×15的遮挡。图2为样本集中部分人脸图像。

Download:
图 2 有不同大小遮挡的AR数据集部分样本 Fig. 2 Partial sample of the AR data set with different size occlusions

Binalpha数据集包含10个手写数字和26个手写英文字母,总共1 404个图像,每幅图像的大小为20×16,图像中的像素值为1或0。图3为样本集的部分人脸图像。

Download:
图 3 Binalpha数据集部分样本 Fig. 3 Partial sample of the Binalpha data set
3.2 参数分析

本节讨论模型中参数 ${\textit{λ}}$ ${{\textit{λ}} _1}$ 对识别性能的影响情况,这里分别考虑FERET、AR和Binalpha这3个数据集,并从每人的图像中选取5、5和20张用于训练,其余用于测试。实验中,参数 ${\textit{λ}}$ ${{\textit{λ}}_1}$ 取值范围均为{0.001,0.01,0.1,1,10,100,1 000},表13分别为CCRLDP算法在FERET、AR和Binalpha数据集上不同参数组时的识别结果。

表 1 FERET数据集参数比较 Tab.1 Comparison of the FERET data set parameters
表 2 AR数据集参数比较 Tab.2 Comparison of the AR data set parameters
表 3 Binalpha数据集参数比较 Tab.3 Comparison of the Binalpha data set parameters %

表1得,在FERET数据集上,对于不同的 ${\textit{λ}}$ ${{\textit{λ}} _1}$ 值,CCRLDP的识别率变化比较平稳,起伏不大。从表2可以看出,当识别率最高时, ${{\textit{λ}}_1}$ 的值较小,这说明在AR数据集上竞争能力起较小的作用。

另外,由表1表3可知,随着 ${{\textit{λ}} _1}$ 值的增大,识别率总体上也相应地提高,这说明在特征提取过程中考虑各类样本之间的竞争能力是有利于提取具有判别能力的特征的。然而当它的值增大到一定时,识别率则开始降低,这是因为,如果 ${{\textit{λ}} _1}$ 的值过大,则放大了各类样本间的竞争性而忽视了样本间的协同表示能力,从而造成对样本的重构能力下降,最终导致识别率降低。相反,如果 ${{\textit{λ}} _1}$ 取值过小,此时只考虑全局信息而丢失各类样本的竞争性信息,从而导致识别率降低。

3.3 实验结果分析

从上述数据集中每类随机选取L张图像作为训练样本,剩下的作为测试样本。对FERET数据集,L取5;对AR数据集,L分别取5、8、10及12;对Binalpha数据集,L分别取20、23及25。在LPP算法中近邻值取 $k = L - 1$ 。对于FERET和AR数据集,子空间维数范围均设定为2~50;Binalpha数据集子空间维数范围设定为1~20。由前面的参数分析知,本文算法参数 ${\textit{λ}}$ ${{\textit{λ}}_1}$ 在FERET数据集上设置为 ${\textit{λ}}= 10$ ${{\textit{λ}} _1} = 1$ ;在AR数据集上为 ${\textit{λ}} = 1$ ${{\textit{λ}} _1} = 0.001$ ;在Binalpha数据集上为 ${\textit{λ}} = 1\,\,000$ ${{\textit{λ}} _1} = 1$ 。将每个实验重复进行10次,并取平均值作为最终的识别率。为了提高计算效率,避免产生奇异问题,对原始数据利用PCA法做预处理,PCA的贡献率设置为98%,使用最近邻分类器(NN)进行分类。表4给出了本文算法(CCRLDP)与其他算法在有椒盐噪声FERET数据集上的最优识别率及其标准差,这里括号中数字为识别率最高时对应的特征维数。由表4可知,在加入椒盐噪声的FERET数据集上,CCRLDP的识别率远高于其他5种算法,这是因为CCRLDP算法充分利用了样本的标签信息和局部信息。另外,CCRLDP算法的标准差也较小,这意味着该算法比其他算法更稳定。表5为6种算法在Binalpha数据集上的识别率及标准差,这里的数据集没有任何噪声和遮挡。由表5可以看出,对于不同的训练样本数L,CCRLDP的识别率均优于其他算法,且识别率随着训练样本数的增加而增加;另外,有监督学习算法CRRP、CRLDP和CCRLDP的算法性能高于无监督学习算法LPP和CRP,因为无监督学习算法没有利用样本的标签信息,而在CRLDP算法中,由于没有考虑样本之间的竞争能力和正系数的作用,其判别信息较少,因此它的识别率低于本文算法。

表 4 加噪FERET数据集上6种算法识别率及标准差 Tab.4 Recognition rate and standard deviation of six algorithms on the noisy FERET data set
表 5 Binalpha数据集上不同训练样本数时6种算法识别率及标准差 Tab.5 Recognition rate and standard deviation of six algorithms on the Binalpha data set

表6可见,在遮挡和训练样本数不同的情况下,CCRLDP算法的识别率均优于所有其他4种算法。在同一种遮挡之下,CRRP、CRLDP和CCRLDP这3种算法的识别率均随着训练样本数L的增大而增大;而对不同尺寸的遮挡,随着遮挡尺寸的增大,各算法的识别率在一定程度上均有所降低。CCRC是一种分类算法,直接通过测试样本求其系数,但是当输入图片的尺寸比较大时,算法的复杂度将会特别高,而且由表6可知CCRC的鲁棒性比较弱。表7给出各算法在不同数据集上的计算时间,在大多数情况下,本文算法的计算速度高于其他算法,个别算法的计算时间虽然少,但是其识别率远低于本文算法。综上考虑,本文算法优于其他对比算法。

表 6 AR数据集上不同大小遮挡和不同训练样本数时6种算法识别率及标准差 Tab.6 Six algorithms for recognition rate and standard deviation of different size occlusions and training samples on the AR data set                                        %
表 7 各算法在不同数据集上的计算时间 Tab.7 Calculation time of each algorithm on different data sets

图4中描述了除CCRC算法之外其他5种不同算法在各数据集上的平均识别率随特征子空间维数变化而变化的曲线(因为CCRC直接对测试集原数据进行分类,没有涉及特征的提取,即不存在维度变化问题)。随着特征维数的增加,各算法的识别率也在逐渐上升,对于大多数数据集来说,在第20维之后,CCRLDP趋于平稳,性能比较稳定;虽然CRLDP和CRRP均使用协同表示重构来表示类间分离性和类内紧致性的有监督学习算法,但CRLDP考虑了相同标签样本的局部紧致性和不同标签样本的局部分离性,具有一定的判别结构,因此其性能高于CRRP;CRP和LPP均为无监督学习算法,但LPP需要手动构造图,不能有效选择数据的本质结构,所以LPP算法性能次于CRP;另外,CRRP能充分地利用样本的标签信息,故其性能优于LPP。

总之,CCRLDP既考虑了数据的局部结构,又充分地利用了样本的标签信息,因此在构造局部结构图时不需要手动选取k值。由于CCRLDP得到的是具有稀疏性的类间图和类内图,所以对噪声具有一定的鲁棒性,因此它具有较高的识别率。以上结果表明,该算法能提取更多具有区分能力的特征,从而能提升其识别性能。

Download:
图 4 不同数据集上5种算法的识别率 Fig. 4 Recognition rate of five algorithms on different data sets
4 结束语

本文通过考虑不同系数在对样本重构时的表现,采用竞争性协同表示的思想来构造类间分离图和类内紧致图,提出一种有监督的特征提取算法。该算法通过计算类内紧致矩阵和类间分离矩阵来刻画图像的局部结构并得其最优投影矩阵。与经典的基于流行学习的算法相比,以上算法不仅考虑了样本间的协同表示能力和每类样本的竞争性,还强调了正系数的作用,因此可大大提高其识别效率。

参考文献
[1] XU Chang, TAO Dacheng, XU Chao, et al. Large-margin weakly supervised dimensionality reduction[C]//Proceedings of the 31st International Conference on Machine Learning. Beijing, China, 2014: II-865–II-873. (0)
[2] LI Jun, XU Chang, GONG Mingming, et al. SERVE: soft and equalized residual vectors for image retrieval[J]. Neurocomputing, 2016, 207: 202-212. DOI:10.1016/j.neucom.2016.04.047 (0)
[3] XIE Liping, TAO Dacheng, WEI Haikun. Joint structured sparsity regularized multiview dimension reduction for video-based facial expression recognition[J]. ACM transactions on Intelligent systems and technology, 2017, 8(2): 28. (0)
[4] TURK M, PENTLAND A. Eigenfaces for recognition[J]. Journal of cognitive neuroscience, 1991, 3(1): 71-86. DOI:10.1162/jocn.1991.3.1.71 (0)
[5] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J. Eigenfaces vs. fisherfaces: recognition using class specific linear projection[J]. IEEE transactions on pattern analysis and machine intelligence, 1997, 19(7): 711-720. DOI:10.1109/34.598228 (0)
[6] HE Xiaofei, YAN Shuicheng, HU Yuxiao, et al. Face recognition using Laplacian faces[J]. IEEE transactions on pattern analysis and machine intelligence, 2005, 27(3): 328-340. DOI:10.1109/TPAMI.2005.55 (0)
[7] YAN Shuicheng, XU Dong, ZHANG Benyu, et al. Graph embedding and extensions: a general framework for dimensionality reduction[J]. IEEE transactions on pattern analysis and machine intelligence, 2007, 29(1): 40-51. DOI:10.1109/TPAMI.2007.250598 (0)
[8] CHEN H T, CHANG Huangwei, LIU T L. Local discriminant embedding and its variants[C]//Proceedings of IEEE computer society conference on computer vision and pattern recognition. San Diego, USA, 2005: 846−l853. (0)
[9] YANG Jian, ZHANG D, YANG Jingyu. Globally maximizing, locally minimizing: unsupervised discriminant projection with applications to face and palm biometrics[J]. IEEE transactions on pattern analysis and machine intelligence, 2007, 29(4): 650-664. DOI:10.1109/TPAMI.2007.1008 (0)
[10] HUANG Pu, CHEN Caikou, TANG Zhenmin, et al. Discriminant similarity and variance preserving projection for feature extraction[J]. Neurocomputing, 2014, 139: 180-188. DOI:10.1016/j.neucom.2014.02.047 (0)
[11] HUANG Pu, CHEN Caikou, ZHANG Zhenmin, et al. Feature extraction using local structure preserving discriminant analysis[J]. Neurocomputing, 2014, 140: 104-113. DOI:10.1016/j.neucom.2014.03.031 (0)
[12] YU Weiwei, TENG Xiaolong, LIU Chongqing. Face recognition using discriminant locality preserving projections[J]. Image and vision computing, 2006, 24(3): 239-248. DOI:10.1016/j.imavis.2005.11.006 (0)
[13] ZHANG Lei, YANG Meng, FENG Xiangchu. Sparse representation or collaborative representation: which helps face recognition[C]//Proceedings of International Conference on Computer Vision. Barcelona, Spain, 2012: 471−478. (0)
[14] YUAN Haoliang, LI Xuecong, XU Fangyuan, et al. A collaborative-competitive representation based classifier model[J]. Neurocomputing, 2018, 275(1): 627-635. (0)
[15] HUANG Pu, LI Tao, GAO Guangwei, et al. Collaborative representation based local discriminant projection for feature extraction[J]. Digital signal processing, 2018, 76: 84-93. DOI:10.1016/j.dsp.2018.02.009 (0)
[16] YANG Wankou, WANG Zhenyu, SUN Changyin. A collaborative representation based projections method for feature extraction[J]. Pattern recognition, 2015, 48(1): 20-27. DOI:10.1016/j.patcog.2014.07.009 (0)
[17] HUA Juliang, WANG Huan, REN Mingwu, et al. Dimension reduction using collaborative representation reconstruction based projections[J]. Neurocomputing, 2016, 193: 1-6. DOI:10.1016/j.neucom.2016.01.060 (0)