联合不相关回归和非负谱分析的无监督特征选择

朱星宇 陈秀宏

朱星宇, 陈秀宏. 联合不相关回归和非负谱分析的无监督特征选择 [J]. 智能系统学报, 2022, 17(2): 303-313. doi: 10.11992/tis.202012033
引用本文: 朱星宇, 陈秀宏. 联合不相关回归和非负谱分析的无监督特征选择 [J]. 智能系统学报, 2022, 17(2): 303-313. doi: 10.11992/tis.202012033
ZHU Xingyu, CHEN Xiuhong. Joint uncorrelated regression and non-negative spectral analysis for unsupervised feature selection [J]. CAAI Transactions on Intelligent Systems, 2022, 17(2): 303-313. doi: 10.11992/tis.202012033
Citation: ZHU Xingyu, CHEN Xiuhong. Joint uncorrelated regression and non-negative spectral analysis for unsupervised feature selection [J]. CAAI Transactions on Intelligent Systems, 2022, 17(2): 303-313. doi: 10.11992/tis.202012033

联合不相关回归和非负谱分析的无监督特征选择

doi: 10.11992/tis.202012033
基金项目: 江苏省研究生科研与实践创新计划项目(JNKY19_074).
详细信息
    作者简介:

    朱星宇,硕士研究生,主要研究方向为数字图像处理和模式识别;

    陈秀宏,教授,博士后,主要研究方向为数字图像处理和模式识别。发表学术论文120余篇.

    通讯作者:

    陈秀宏. E-mail: xiuhongc@jiangnan.edu.cn.

  • 中图分类号: TP391.4

Joint uncorrelated regression and non-negative spectral analysis for unsupervised feature selection

  • 摘要: 在无标签高维数据普遍存在的数据挖掘和模式识别任务中,无监督特征选择是必不可少的预处理步骤。然而现有的大多数特征选择方法忽略了数据特征之间的相关性,选择出具有高冗余、低判别性的特征。本文提出一种基于联合不相关回归和非负谱分析的无监督特征选择方法(joint uncorrelated regression and nonnegative spectral analysis for unsupervised feature selection),在选择不相关且具有判别性特征的同时,自适应动态确定数据之间的相似性关系,从而能获得更准确的数据结构和标签信息。而且,模型中广义不相关约束能够避免平凡解,所以此方法具有不相关回归和非负谱聚类两种特征选择方法的优点。本文还设计出一种求解模型的高效算法,并在多个数据集上进行了大量实验与分析,验证模型的优越性。

     

    Abstract: Unsupervised feature selection is an essential preprocessing step in the data mining and pattern recognition tasks of unlabeled high-dimensional data. However, most existing feature selection methods ignore the correlation between data features and select features with high redundancy and low discrimination. This paper proposes an unsupervised feature selection method based on joint uncorrelated regression and non-negative spectral analysis (Joint uncorrelated regression and nonnegative spectral analysis for unsupervised feature selection). It adaptively and dynamically determines the similarity relationship between data while selecting uncorrelated and discriminant features, so that more accurate data structure and label information can be obtained. Moreover, the generalized uncorrelated constraints in the model can avoid trivial solutions, so this method has the advantages of two feature selection methods: uncorrelated regression and non-negative spectral clustering. An efficient algorithm for solving the model is also designed, and a large number of experiments and analyses are carried out on multiple data sets to verify the superiority of the model.

     

  • 在信息时代背景下产生了海量的高维数据,然而这些数据通常含有大量冗余特征和噪声,降低了算法的性能。因此,如何从高维数据中选出最有效的特征即特征选择已成为一项研究热点,特征选择旨在通过去除冗余、不相关和有噪声的特征,找到一组简洁且具有良好泛化能力的特征,由此产生的方法已在机器学习[1]、数据挖掘[2]和生物信息学[3]等领域得到了广泛的应用。基于是否使用标签,特征选择方法可分为有监督学习[4]和无监督学习[5]

    有监督学习依赖于数据的标签信息,并利用它直接指导学习过程。然而,从未标记数据中提取最有判别性的信息是一个具有挑战性的问题,由于无监督特征选择可以根据原始数据的潜在属性来确定特征的重要性,因此近年来越来越受到研究人员的关注。本文主要研究无监督特征选择方法。

    基于谱分析的无监督特征选择因其出色的性能引起了广泛关注,本节将回顾一些比较经典的谱特征选择方法。无监督的判别特征选择(L2,1-norm regularized discriminative feature selection for unsupervised learning)[6]联合使用判别分析和L2,1范数进行无监督特征选择,它虽然可以选择判别性的特征,但却忽略了数据间的内在结构。Nie等[7]提出了灵活流形嵌入(flexible manifold embedding: a framework for semi-supervised and unsupervised dimension reduction)作为降维的一般框架,非负判别特征选择(unsupervised feature selection using nonnegative spectral analysis)[8]则在FME框架中结合特征选择和谱聚类学习,它具有鲁棒非负矩阵分解、局部学习和鲁棒特征学习的优势。联合嵌入学习和稀疏回归(joint embedding learning and sparse regression: a framework for unsupervised feature selection)[9]是基于FME和L2,1范数的特征选择方法,它致力于嵌入学习高维样本的低维表示。最近,Nie等[10]提出了结构最优图特征选择(unsupervised feature selection with structured graph optimization),该方法同时执行特征选择和局部结构学习,同时它可以自适应地确定数据间的相似性矩阵,但过于严格的正交约束选择出的特征会丢失一定程度的判别性,从而降低他们在聚类或分类任务中的性能。自适应图的广义不相关回归(generalized uncorrelated regression with adaptive graph for unsupervised feature selection)[11]通过最大熵来自适应地构造相似图,进而同时进行特征选择和谱聚类,但它在学习相似图时采用标签矩阵学习,没有考虑原始数据的类簇结构,这显然不是很合理。

    尽管上述无监督特征选择方法已经在各种应用中取得了良好的性能,但仍有以下不足:1) 上述基于谱特征选择的方法构造的相似图是从原始数据得到且是静态的,而现实世界的数据始终包含大量噪声,这使得静态相似矩阵很不可靠,进而破坏局部流形结构;2) 最优相似矩阵应具有精确的c个连通分量(c是类簇数),它能更准确地揭示数据的局部邻域结构;3) 通过传统正交约束选择出的特征虽达到了低冗余的目的,但会丢失一些判别性的特征,这些特征在分类任务中往往能起到关键作用。

    综合上述分析,本文联合广义不相关回归、结构化最优图和非负谱分析,提出一个联合不相关回归和非负谱分析的无监督特征选择模型。模型中对相似矩阵增加包含精确的c个连通分量的约束,可以用来动态学习结构化最优图,进而更准确地揭示数据之间的局部结构信息;同时通过非负谱聚类可以学习到更真实准确的聚类指标;利用广义不相关约束的正则回归方法选择不相关和判别性的特征,有效避免不相关约束导致的平凡解。在不同数据集上的实验表明所提出的方法是有效的,且该模型在无监督二维图像的特征选择领域,如:医学图像分类、人脸识别、模式识别等计算机视觉任务方面有着广泛的应用价值。

    给定输入数据集 ${\boldsymbol{X}} = [{{\boldsymbol{x}}_1}\;{{\boldsymbol{x}}_2}\;\cdots\;{{\boldsymbol{x}}_n}] \in {{\bf{R}}^{d \times n}}$ ${{\boldsymbol{x}}_i}$ 表示第i个样本,并且这些数据点属于c个不同的类簇。记 ${\rm{tr}}({\boldsymbol{M}})$ 为矩阵的迹; ${{\boldsymbol{M}}^{\rm{T}}}$ 为矩阵 ${\boldsymbol{M}}$ 的转置; ${\left\| {\boldsymbol{M}} \right\|_F}$ 为矩阵 ${\boldsymbol{M}}$ $ F $ 范数; ${{\boldsymbol{m}}^i}$ 表示矩阵 ${\boldsymbol{M}}$ 的第i行向量; ${{\boldsymbol{m}}_j}$ 表示矩阵 ${\boldsymbol{M}}$ 的第j列向量; $ {m_{ij}} $ 表示矩阵 ${\boldsymbol{M}}$ 的第i行,第j列元素;给定矩阵 ${\boldsymbol{M}} \in {{\bf{R}}^{d \times c}}$ ,它的 ${L_{{\text{2}},{\text{1}}}}$ 范数定义为 ${\left\| {\boldsymbol{M}} \right\|_{2,1}} = \displaystyle\sum\limits_{i = 1}^d {\sqrt {\displaystyle\sum\limits_{{j} = {1}}^c {m_{ij}^2} } } = \displaystyle\sum\limits_{i = 1}^d {{{\left\| {{{\boldsymbol{m}}^i}} \right\|}_2}}$ ,其中 ${\left\| {{{\boldsymbol{m}}^i}} \right\|_2}$ 表示向量 ${{\boldsymbol{m}}^i}$ ${L_{\text{2}}}$ 范数; ${\boldsymbol{I}}$ 为单位矩阵; ${{\textit{1}}} = {[1\;1\;\cdots\;1]^{\rm{T}}} $ $\in {{\bf{R}}^{n \times 1}} $ 。中心矩阵 ${\boldsymbol{H}}$ 定义为 ${\boldsymbol{H}} = {\boldsymbol{I}} - \dfrac{1}{{{n}}}{{\boldsymbol{I}}}^{{\rm{T}}}$

    无监督特征选择也可以表示为回归模型,从而正则化回归模型也广泛应用在无监督特征选择中。但是,已有工作忽略了特征的不相关性。尤其是当只需少量特征时,需要选择最具判别性的特征。Li等[11]提出的以下广义不相关回归模型(generalized uncorrelated regression model,GURM)可以获得具有判别性且不相关的流形结构:

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{{\boldsymbol{W,F,b}}} \left\| {{{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{W}} + {{\textit{1}}}{{\boldsymbol{b}}^{\rm{T}}} - {\boldsymbol{F}}} \right\|_F^2 + \beta {\left\| {\boldsymbol{W}} \right\|_{2,1}}\\ \begin{array}{*{20}{c}} {\rm{s.t.}}&{{{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{S}}_t^G} {\boldsymbol{W}} = {\boldsymbol{I}} \end{array}\\ \end{gathered} $$ (1)

    式中: ${\boldsymbol{W}} \in {{\bf{R}}^{d \times c}}$ 是回归矩阵, ${\boldsymbol{b}} \in {{\bf{R}}^{c \times 1}}$ 是偏差项, ${\boldsymbol{F}} \in {{\bf{R}}^{n \times c}}$ 是学习的嵌入聚类结构;正则化项 $ {\left\| {\boldsymbol{W}} \right\|_{{\text{2}},1}} $ 可使得 $ {\boldsymbol{W}} $ 的行是稀疏的,进而选择重要的特征; $ \beta $ 是正则化参数, $ \beta $ 越大, $ {\boldsymbol{W}} $ 行越稀疏; $ {\boldsymbol{S}}_t^G = {{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}} $ 为广义散度矩阵, $ {\boldsymbol{G}} $ $ d \times d $ 对角矩阵,其对角元素定义为

    $$ {G_{ii}} = \frac{1}{{2\sqrt {\left\| {{{\boldsymbol{w}}^i}} \right\|_2^2 + \varepsilon } }},(\varepsilon > 0,i = 1,2, \cdots ,d) $$ (2)

    这里, $ \varepsilon > 0 $ 是一个很小的值,可避免因 $ {\boldsymbol{W}} $ 的行稀疏而导致的分母为0的情形; ${{\boldsymbol{S}}_t} = {\boldsymbol{XH}}{{\boldsymbol{X}}^{\rm{T}}}$ 是样本数据的总散度矩阵。一般地,当样本数量小于数据维度时, $ {{\boldsymbol{S}}_t} $ 是奇异的,而 $ {\boldsymbol{S}}_t^G $ 总是正定的,这样约束条件 ${{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{S}}_t^G{\boldsymbol{W}} = {\boldsymbol{I}}$ 可使数据在投影子空间中是统计不相关的,这样可以很好地保留数据的全局结构。当 $ \beta $ 很小时,可使投影后样本之间高度不相关,因此,约束条件 ${{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{S}}_t^G{\boldsymbol{W}} = {\boldsymbol{I}}$ 在描述样本的不相关性时要优于正交约束 ${{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{W}} = {\boldsymbol{I}}$ 和传统不相关约束 ${{\boldsymbol{W}}^{\rm{T}}}{{\boldsymbol{S}}_t}{\boldsymbol{W}} = {\boldsymbol{I}}$

    研究表明,相似性矩阵可用来描述数据间的局部结构。然而,大多数构造相似性矩阵的方法并没有考虑原始数据中的冗余特征和噪声,从而导致所学习到的局部结构不够准确,最终影响特征选择的结果。本节采用一种自适应确定相似度矩阵的方法[12],可以同时执行特征选择和局部结构学习。

    两个数据样本相邻的概率可以用来描述它们之间的相似度,记相似度矩阵为 ${\boldsymbol{S}} \in {{\bf{R}}^{n \times n}}$ ,其中元素 $ {s_{ij}} $ 表示相似性图中与样本 $ {{\boldsymbol{x}}_i} $ $ {{\boldsymbol{x}}_j} $ 相对应的结点之间相连的概率。样本 $ {{\boldsymbol{x}}_i} $ $ {{\boldsymbol{x}}_j} $ 越接近,则对应的连接概率 $ {s_{ij}} $ 越大,它与对应结点之间的距离成反比。相似度矩阵 ${\boldsymbol{S}} \in {{\bf{R}}^{n \times n}}$ 可通过以下优化问题得到:

    $$ \begin{split} &{\mathop {{\text{min}}} \displaystyle\sum\limits_{i,j = 1}^n {\left\| {{{\boldsymbol{x}}_i} - {{\boldsymbol{x}}_j}} \right\|_2^2{s_{ij}}} + \alpha \left\| {\boldsymbol{S}} \right\|_F^2}\\ &\quad\quad{{\rm{s.t.}}}{\displaystyle\sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0} \end{split} $$ (3)

    这里,约束条件 $\displaystyle\sum\limits_{j = 1}^n {{s_{ij}}} = 1$ 使得相似矩阵 $ {\boldsymbol{S}} $ 的第i行元素之和等于1,表示与 $ {{\boldsymbol{x}}_i} $ 对应的总连接概率为1, $ {s_{ij}} $ 衡量样本 $ {{\boldsymbol{x}}_i} $ $ {{\boldsymbol{x}}_j} $ 之间的局部相似度; $ \alpha \geqslant {\text{0}} $ 是正则化参数,可以自适应来确定[13];正则化项 $ \left\| {\boldsymbol{S}} \right\|_F^2 $ 可以避免出现平凡解。

    如果学习得到的相似矩阵恰好包含c个连通分量时(即它仅含有c个对角分块),则每个样本的近邻是最佳的。但是,问题(3)(式(3))的解一般不具备此性质,大多数情况下其解只包含1个连通分量[12]

    受文献[14]的启发,对拉普拉斯矩阵 ${\boldsymbol{L}}{}_{\boldsymbol{S}} = {\boldsymbol{D}}{}_{\boldsymbol{S}} {-} $ $ \dfrac{{{\boldsymbol{S}} + {{\boldsymbol{S}}^{\rm{T}}}}}{2}$ 的秩进行约束可使得矩阵 $ {\boldsymbol{S}} $ 具有c个连通分量。这时,问题(3)转化为

    $$ \begin{gathered} \quad\quad\quad{\text{min}}\sum\limits_{i,j = 1}^n {\left\| {{{\boldsymbol{x}}_i} - {{\boldsymbol{x}}_j}} \right\|_2^2{s_{ij}}} + \alpha \left\| {\boldsymbol{S}} \right\|_F^2 \hfill \\ \begin{array}{*{20}{c}} {{\rm{s.t.}}}&{\forall i,} \end{array}\sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0,{\rm{rank}}({{\boldsymbol{L}}_{\boldsymbol{S}}}) = n - c \hfill \\ \end{gathered} $$ (4)

    然而,问题(4)(式(4))很难直接求解,因为秩约束是一个复杂的非线性约束。假设半正定矩阵 $ {{\boldsymbol{L}}_{\boldsymbol{S}}} $ n个非负特征值依次由小到大排列 ${\sigma _1}({{\boldsymbol{L}}_{\boldsymbol{S}}}) \leqslant $ $ {\sigma _2}({{\boldsymbol{L}}_{\boldsymbol{S}}}) \leqslant \cdots \leqslant $ $ {\sigma _n}({{\boldsymbol{L}}_{\boldsymbol{S}}})$ ,则问题(4)可转化为

    $$ \begin{gathered} {\text{min}}\sum\limits_{i,j = {\text{1}}}^n {\left\| {{{\boldsymbol{x}}_i} - {{\boldsymbol{x}}_j}} \right\|_2^2{s_{ij}}} + \alpha \left\| {\boldsymbol{S}} \right\|_F^2 + {\text{2}}\lambda \sum\limits_{i = 1}^c {{\sigma _i}({{\boldsymbol{L}}_{\boldsymbol{S}}})} \hfill \\ \quad\quad\quad{{\rm{s.t.}}}\quad{\forall i,\sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}}} \geqslant 0 \hfill \\ \end{gathered} $$ (5)

    其中, $ \lambda $ 是一个充分大的正数,使得 $\displaystyle\sum\limits_{i = 1}^c {\sigma {}_i} ({{\boldsymbol{L}}_{\boldsymbol{S}}}) = 0$ 且矩阵 $ {{\boldsymbol{L}}_{\boldsymbol{S}}} $ 的秩等于 $ n - c $ 。根据KyFan’s理论[15]

    $$ \sum\limits_{i = 1}^c {\sigma {}_i} ({{\boldsymbol{L}}_{\boldsymbol{S}}}) = \mathop {{\text{min}}}\limits_{{\boldsymbol{F}} \in {R^{n \times c}},{{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}} = {\boldsymbol{I}}} {\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{{\boldsymbol{L}}_{\boldsymbol{S}}}{\boldsymbol{F}}) $$ (6)

    这里 ${\boldsymbol{F}} \in {{\bf{R}}^{n \times c}}$ 是类指标矩阵。故问题(5)(式(5))可重写为

    $$ \begin{gathered} {\text{min}}\sum\limits_{i,j = {\text{1}}}^n {\left\| {{{\boldsymbol{x}}_i} - {{\boldsymbol{x}}_j}} \right\|_2^2{s_{ij}}} + \alpha \left\| {\boldsymbol{S}} \right\|_F^2 + {\text{2}}\lambda \cdot{\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{{\boldsymbol{L}}_{\boldsymbol{S}}}{\boldsymbol{F}}) \hfill \\ {\rm{{s.t.}}}\quad{\forall i,\sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0,} \quad {{{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}} = {\boldsymbol{I}},{\boldsymbol{F}} \geqslant 0} \\ \end{gathered} $$ (7)

    正交非负约束可使得 $ {\boldsymbol{F}} $ 的每一行只有一个元素大于0,其他元素都等于0。从而得到的类指标矩阵 $ {\boldsymbol{F}} $ 更准确,且获得更具判别性的信息。此外,求解问题(7)(式(7))得到的 $ {\boldsymbol{S}} $ 包含精确的c个连通分量,能够捕获更准确的局部结构信息。

    根据流形学习的理论,希望原始空间中样本的近邻关系在低维投影空间中得到保持,为此,本文讨论在低维空间内学习最优图。设 ${\boldsymbol{W}} \in {{\bf{R}}^{d \times c}}$ 是投影矩阵,则由(7)可得到以下模型:

    $$ \begin{gathered} {\text{min}}\sum\limits_{i,j = {\text{1}}}^n {\left\| {{{\boldsymbol{W}}^{\rm{T}}}{{\boldsymbol{x}}_i} - {{\boldsymbol{W}}^{\rm{T}}}{{\boldsymbol{x}}_j}} \right\|_2^2{s_{ij}}} + \alpha \left\| {\boldsymbol{S}} \right\|_F^2 + {\text{2}}\lambda \cdot{\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{{\boldsymbol{L}}_{\boldsymbol{S}}}{\boldsymbol{F}}) \hfill \\ \quad{{\rm{s.t.}}}\quad{\forall i,\sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0},\quad {{{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}} = {\boldsymbol{I}},{\boldsymbol{F}} \geqslant 0} \hfill \\ \end{gathered} $$ (8)

    将模型(8)(式(8))与稀疏回归模型(1)相结合,得到本文联合不相关回归和非负谱分析模型:

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{{\boldsymbol{W,F,b}},{\boldsymbol{S}}} \left\| {{{\boldsymbol{X}}^{{\rm{T}}}}{\boldsymbol{W}} + {{\textit{1}}}{{\boldsymbol{b}}^{{\rm{T}}}} - {\boldsymbol{F}}} \right\|_F^2 + \sum\limits_{i,j = {\text{1}}}^n {{{\left\| {{\boldsymbol{W}}^{\rm{T}}{{\boldsymbol{x}}_i} - {\boldsymbol{W}}^{\rm{T}}{{\boldsymbol{x}}_j}} \right\|}_2}{s_{ij}}} +\\ \quad\quad\quad \alpha \left\| {\boldsymbol{S}} \right\|_F^2 + \beta {\left\| {\boldsymbol{W}} \right\|_{2,1}} + 2\lambda \cdot{\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{{\boldsymbol{L}}_{\boldsymbol{S}}}{\boldsymbol{F}}) \hfill \\ {{\rm{s.t.}}}{{{\boldsymbol{W}}^{{\rm{T}}}}({{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}})} {\boldsymbol{W}} = {\boldsymbol{I}},{{{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}} = {\boldsymbol{I}},{\boldsymbol{F}} \geqslant 0,}\\ {\forall i,\sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0} \\ \end{gathered} $$ (9)

    其中, $\alpha \text{、}\beta\text{、}\lambda$ 是正则化参数。在式(9)中,第1项、第4项和第5项刻画了无监督不相关回归和非负谱分析,用于学习稀疏投影矩阵和预测标签矩阵,且 $ {L _{2,1}} $ 范数可使得 $ {\boldsymbol{W}} $ 保持行稀疏,从而能够选择出更具有价值和判别性的特征;第2项和第3项用于学习数据的局部结构,确保原始空间内数据的相似结构在投影子空间内得到保持。这里第2项未采用 $ {L _2} $ 范数距离的平方,这是考虑到若原始数据中有噪声,平方会扩大噪声对模型学习与分类的影响。

    令问题(9)(式(9))关于 $ {\boldsymbol{b}} $ 的拉格朗日函数为

    $$ {\varOmega _b}({\boldsymbol{b}}) = \left\| {{{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{W}} + {{\textit{1}}}{{\boldsymbol{b}}^{\rm{T}}} - {\boldsymbol{F}}} \right\|_F^2 + \Gamma ({\boldsymbol{W}},{\boldsymbol{F}},{\boldsymbol{S}}) $$ (10)

    其中, $ \Gamma ({\boldsymbol{W}},{\boldsymbol{F}},{\boldsymbol{S}}) $ 表示式(9)中依赖于 ${\boldsymbol{W}}\text{、}{\boldsymbol{F}}\text{、}{\boldsymbol{S}}$ 但又独立于 $ {\boldsymbol{b}} $ 的项。取 ${\varOmega _b}({\boldsymbol{b}})$ 关于 $ {\boldsymbol{b}} $ 的导数并令其等于0,得

    $$ {\boldsymbol{b}} = \frac{1}{n}({{\boldsymbol{F}}^{\rm{T}}} - {{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{X}}){{\textit{1}}} $$ (11)

    在实际应用中,数据结构总是多模态的,为了在多模态数据上获得更好的性能,可以研究图的局部性。假设 $ {\boldsymbol{S}} $ 的每一行有一个具体的 $ {\alpha _i} $ [13],再结合式(11),问题(9)可重写为

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{{\boldsymbol{W,F,S}}} \left\| {{\boldsymbol{H}}({{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{W}} - {\boldsymbol{F}})} \right\|_F^2 + \sum\limits_{i,j = {\text{1}}}^n {({{\left\| {{\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_i} - {\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_j}} \right\|}_2}{s_{ij}}} +\\ {\alpha _i}s_{ij}^2) + \beta {\left\| {\boldsymbol{W}} \right\|_{2,1}} + 2\lambda \cdot{\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{{\boldsymbol{L}}_{\boldsymbol{S}}}{\boldsymbol{F}}) \\ {{\rm{s.t.}}}{{{\boldsymbol{W}}^{\rm{T}}}({{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}}){\boldsymbol{W}} = {\boldsymbol{I}},} {{{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}} = {\boldsymbol{I}},{\boldsymbol{F}} \geqslant 0,}\\ {\forall i,\sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0} \end{gathered} $$ (12)

    此时,参数 $ {\alpha _i} $ 可以控制每个样本自适应近邻的数量[12]

    由于式(12)中的目标函数是凸的,故它有全局最优解,但直接求其全局解比较困难。本节给出一种交替优化方法来迭代求解它。

    1) 固定 $ {\boldsymbol{F}} $ $ {\boldsymbol{S}} $ ,更新 $ {\boldsymbol{W}} $

    此时,问题(12)(式(12))等价于以下问题:

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{\boldsymbol{W}} \left\| {{\boldsymbol{H}}({{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{W}} - {\boldsymbol{F}})} \right\|_F^2 + \sum\limits_{i,j = {\text{1}}}^n {{{\left\| {{\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_i} - {\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_j}} \right\|}_2}{s_{ij}}} + \beta {\left\| {\boldsymbol{W}} \right\|_{2,1}} \\ \quad\quad{\rm{{s.t.}}}{{{\boldsymbol{W}}^{\rm{T}}}({{\boldsymbol{S}}_{\boldsymbol{t}}} + \beta {\boldsymbol{G}}){\boldsymbol{W}} = {\boldsymbol{I}}} \quad \end{gathered}$$ (13)

    ${d_{ij}} = {\dfrac{1}{{2\left\| {{{\boldsymbol{W}}^{\rm{T}}}{{\boldsymbol{x}}_i} - {{\boldsymbol{W}}^{\rm{T}}}{{\boldsymbol{x}}_j}} \right\|}}_2}$ ,并定义矩阵 $ {\boldsymbol{\tilde S}} $ 中的元素为 $ {\tilde s_{ij}} = {d_{ij}}{s_{ij}} $ ,则问题(13)(式(13))可等价于以下问题:

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_W {\rm{tr}}({{\boldsymbol{W}}^{\rm{T}}}({{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}}){\boldsymbol{W}} - 2{{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{XHF}} + {{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{HF}}) + \\ {\rm{tr}}({{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{X\tilde L}}{{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{W}})\\ {{\rm{s.t.}}}\quad{{{\boldsymbol{W}}^{\rm{T}}}({{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}}){\boldsymbol{W}} = {\boldsymbol{I}}} \end{gathered} $$ (14)

    式中:图拉普拉斯矩阵 $\tilde{\boldsymbol{ L}} = \tilde{\boldsymbol{ D}} - \tilde{\boldsymbol{ S}}$ ,对角矩阵 $\tilde{\boldsymbol{ D}}$ 的对角元素为 ${\tilde D_{ii}} = \displaystyle\sum\limits_{j = 1}^n {{{\tilde S}_{ij}}}$ 。再由约束 ${{\boldsymbol{W}}^{\rm{T}}}({{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}}){\boldsymbol{W}} = {\boldsymbol{I}}$ 以及固定的 $ {\boldsymbol{F}} $ ,问题(14)(式(14))又可转化为

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{\boldsymbol{W}} {\rm{tr}}({{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{X\tilde L}}{{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{W}} - 2{{\boldsymbol{W}}^{\rm{T}}}{\boldsymbol{XHF}}) \hfill \\ \begin{array}{*{20}{c}} {{\rm{s.t.}}}&{{{\boldsymbol{W}}^{\rm{T}}}({{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}}){\boldsymbol{W}} = {\boldsymbol{I}}} \end{array} \hfill \\ \end{gathered} $$ (15)

    该问题将不相关性表现为流形结构,且具有闭式解。问题(15)(式(15))可表示为

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{{\boldsymbol{\bar W}}} {\rm{tr}}({{{\boldsymbol{\bar W}}}^{\rm{T}}}{\boldsymbol{A\bar W}} - 2{{{\boldsymbol{\bar W}}}^{\rm{T}}}{\boldsymbol{B}}) \hfill \\ \begin{array}{*{20}{c}} {{\rm{s.t.}}}&{{{{\boldsymbol{\bar W}}}^{\rm{T}}}{\boldsymbol{\bar W}} = {\boldsymbol{I}}} \end{array} \hfill \\ \end{gathered} $$ (16)

    其中,

    $$ \begin{gathered} {\boldsymbol{\bar W}} = \sqrt {{{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}}} {\boldsymbol{W}},\quad {\boldsymbol{A}} = {{\boldsymbol{C}}^{\rm{T}}}{\boldsymbol{X\tilde L}}{{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{C}}, \\ {\boldsymbol{B}} = {{\boldsymbol{C}}^{\rm{T}}}{\boldsymbol{XHF}},\quad{\boldsymbol{C}} = {\left( {\sqrt {{{\boldsymbol{S}}_t} + \beta {\boldsymbol{G}}} } \right)^{ - 1}} \end{gathered} $$ (17)

    问题(16)(式(16))可以利用广义幂迭代方法[16]求解,详细过程见算法1。

    算法1 求解问题(14)

    输入 数据矩阵 ${\boldsymbol{X} } \in {{\bf{R}}^{d \times n} }$ ,总散度矩阵 ${ {\boldsymbol{S} }_t} \in {\bf{R}}^{d \times d}$ ,类指标矩阵 ${\boldsymbol{F} } \in {{\bf{R}}^{n \times c} }$ ,对角矩阵 ${\boldsymbol{G} } \in {{\bf{R}}^{d \times d} }$ ,图拉普拉斯矩阵 ${\boldsymbol{\tilde L} } \in {{\bf{R}}^{n \times n} }$

    输出 投影矩阵 ${\boldsymbol{\bar W} } \in {{\bf{R}}^{d \times c} }$

    初始化 满足 ${ {\boldsymbol{\bar W} }^{\rm{T}}}{\boldsymbol{\bar W} } = {\boldsymbol{I} }$ 的随机矩阵 ${\boldsymbol{\bar W} } \in {{\bf{R}}^{d \times c} }$ ,根据等式(17)计算 ${\boldsymbol{A} } \in {{\bf{R}}^{d \times d} }$ ${\boldsymbol{B} } \in {{\bf{R}}^{d \times c} }$ ,定义随机 $ v $ ,通过幂方法使得 ${{\tilde{\boldsymbol A}} } = \nu {\boldsymbol{I} } - {\boldsymbol{A} } \in { {\bf{R} }^{d \times d} }$ 为正定矩阵。

    重复:

    ①更新 ${\bf{R} } \leftarrow 2{ {\tilde {\boldsymbol{A} }\bar {\boldsymbol{W} } } } + 2{\boldsymbol{B} }$

    ②设矩阵R的满SVD分解为 ${\bf{R} } = {\boldsymbol{U} }\Sigma { {\boldsymbol{V} }^{\rm{T}}}$ ,则更新 ${ {\bar{\boldsymbol W} } } \leftarrow {\boldsymbol{U} }{ {\boldsymbol{V} }^{\rm{T}}}$

    直到收敛。

    当求得式(16)的最优解之后,问题(14)的最优解 $ {\boldsymbol{W}} $ 可通过下述公式获得:

    $$ {\boldsymbol{W}} = {\boldsymbol{C\bar W}} $$ (18)

    2) 固定 $ {\boldsymbol{W}} $ $ {\boldsymbol{S}} $ ,更新 $ {\boldsymbol{F}} $

    此时,问题(12)等价于:

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{\boldsymbol{F}} {\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{EF}}) - 2{\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{M}}) \hfill \\ \begin{array}{*{20}{c}} {{\rm{s.t.}}}&{{{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}} = {\boldsymbol{I}},{\boldsymbol{F}} \geqslant 0} \end{array} \hfill \\ \end{gathered} $$ (19)

    其中, $ {\boldsymbol{E}} = {\boldsymbol{H}} + 2\lambda {{\boldsymbol{L}}_{\boldsymbol{S}}} $ ${\boldsymbol{M}} = {\boldsymbol{H}}{{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{W}}$

    此问题可采用乘性更新规则[17]来求解。首先考虑它的松驰问题:

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{\boldsymbol{F}} {\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{EF}}) - 2{\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{M}}) + \frac{\gamma }{2}\left\| {{{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}} - {\boldsymbol{I}}} \right\|_F^2 \\ {{\rm{s.t.}}}\quad{{\boldsymbol{F}} \geqslant 0} \end{gathered} $$ (20)

    其中, $ \gamma $ 为充分大的正数,由KKT最优性条件得

    $$ 2{\boldsymbol{EF}} - 2{\boldsymbol{M}} + \gamma {\boldsymbol{F}}({{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}} - {{\boldsymbol{I}}_c}) - {\boldsymbol{\varPhi }} = 0 $$ (21)
    $$ {\varphi _{ij}}{F_{ij}} = 0 $$ (22)

    这里, ${\varphi _{ij}}$ 为对应于约束 $ {F_{ij}} \geqslant 0 $ 的非负拉格朗日乘子。于是有以下更新规则:

    $$ {F_{ij}} \leftarrow {F_{ij}}\frac{{{{({\boldsymbol{M}} + \gamma {\boldsymbol{F}})}_{ij}}}}{{{{({\boldsymbol{EF}} + \gamma {\boldsymbol{F}}{{\boldsymbol{F}}^T}{\boldsymbol{F}})}_{ij}}}} $$ (23)

    再对F的每一列归一化使得它满足条件 ${({{\boldsymbol{F}}^{\rm{T}}}{\boldsymbol{F}})_{ii}} = $ $ 1,$ $i = 1,2,\cdots,n$

    3) 固定 $ {\boldsymbol{W}} $ $ {\boldsymbol{F}} $ ,更新 $ {\boldsymbol{S}} $

    此时,由于 $2{\rm{tr}}({{\boldsymbol{F}}^{\rm{T}}}{{\boldsymbol{L}}_{\boldsymbol{S}}}{\boldsymbol{F}}) = \displaystyle\sum\limits_{i,j = 1}^n {\left\| {{{\boldsymbol{f}}^i} - {{\boldsymbol{f}}^j}} \right\|_2^2{s_{ij}}}$ ,故问题(12)等价于以下问题:

    $$ \begin{split} & \mathop {{\text{min}}}\limits_{\boldsymbol{S}} \sum\limits_{i,j = 1}^n \left({{\left\| {{\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_i} - {\boldsymbol{W}}^{\rm{T}}{{\boldsymbol{x}}_j}} \right\|}_2}{s_{ij}} + {\alpha _i}s_{ij}^2\right) + \lambda \sum\limits_{i,j = 1}^n {\left\| {{{\boldsymbol{f}}^i} - {{\boldsymbol{f}}^j}} \right\|_2^2{s_{ij}}} \hfill \\ &\qquad\qquad {\rm{s.t.}}\quad \forall i,\sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0 \\[-8pt] \end{split} $$ (24)

    其中, $ {{\boldsymbol{f}}^i} $ $ {{\boldsymbol{f}}^j} $ 分别为 $ {\boldsymbol{F}} $ 的第i行和第j行。该问题可分解为以下n个独立的子问题:

    $$ \begin{split}& \mathop {{\text{min}}}\limits_{{s_{ij}}} \sum\limits_{j = 1}^n \left({{\left\| {{\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_i} - {\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_j}} \right\|}_2}{s_{ij}} + {\alpha _i}s_{ij}^2\right) + \lambda \sum\limits_{j = 1}^n {\left\| {{{\boldsymbol{f}}^i} - {{\boldsymbol{f}}^j}} \right\|_2^2{s_{ij}}} \\ &\qquad\qquad\qquad {\rm{s.t.}}\quad \sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0\\[-8pt] \end{split} $$ (25)

    $e_{ij}={\left\| {{\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_i} - {\boldsymbol{W}}{}^{\rm{T}}{{\boldsymbol{x}}_j}} \right\|}_2$ $f_{ij}\left\| {{{\boldsymbol{f}}^i} - {{\boldsymbol{f}}^j}} \right\|_2^2$ ,则式(25)转化为

    $$ \begin{gathered} \mathop {{\text{min}}}\limits_{{{\boldsymbol{s}}^{i}}} {{\left\| {{\boldsymbol{s}}^{i}}+\frac{{\boldsymbol{m}}^i}{2a_i} \right\|}_2^2}\\ {\rm{s.t.}}\quad \sum\limits_{j = 1}^n {{s_{ij}}} = 1,{s_{ij}} \geqslant 0 \end{gathered} $$ (26)

    其中, ${\boldsymbol{m}}^i=(e_{il}+\lambda f_{il},\cdots,e_{{in}}+\lambda f_{{in}})$

    该问题可利用文献[18]中的方法求解,并可自适应地确定式(9)中参数 $ \alpha $ [13],进而获得具有精确k个非零分量的最优解 $ {{\boldsymbol{s}}^i} $

    以上3步可迭代地进行,直到目标函数收敛或满足终止条件,整个过程概括为算法2。

    算法2 JURNFS

    输入 数据矩阵 ${\boldsymbol{X} } \in {{\bf{R}}^{d \times n} }$ ,聚类数量c,总散度矩阵 ${ {\boldsymbol{S} }_t} \in {{\bf{R}}^{d \times d} }$ ,正则化参数 $ \alpha $ $ \beta $ 及足够大的参数 $ \lambda $

    输出 计算 ${\left\| { { {\boldsymbol{w} }^i} } \right\|_2}(i = 1,2,\cdots,d)$ 并按照降序排序,然后选择前f个排好序的特征作为特征选择的结果。

    初始化 通过K-means聚类初始化矩阵 ${\boldsymbol{F} }$ ,定义随机矩阵 ${\boldsymbol{W} }$ ,通过求解问题(3)初始化相似矩阵 $ {\boldsymbol{S}} $ ,并计算图拉普拉斯矩阵 ${ {\boldsymbol{L} }_S} \in {{\bf{R}}^{n \times n} }$ ${{\tilde {\boldsymbol{L}}} } \in {{\bf{R}}^{n \times n} }$ ,令 ${\boldsymbol{G} } = { {\boldsymbol{I} }_{d \times d} }$

    重复:

    ①由算法1求解式(16)得 ${{\bar {\boldsymbol{W}}} }$ ,并由式(18)更新 ${\boldsymbol{W} }$

    ②根据式(2)更新 ${\boldsymbol{G} }$

    ③由式(23)更新 ${\boldsymbol{F} }$

    ④求解(26)更新 ${\boldsymbol{S} }$

    ⑤更新 ${ {\boldsymbol{L} }_{\boldsymbol{S} } } = { {\boldsymbol{D} }_{\boldsymbol{S} } } - \dfrac{ { {\boldsymbol{S} } + { {\boldsymbol{S} }^{\rm{T} } } }}{2}$

    ⑥更新矩阵 ${\tilde {\boldsymbol{S}}}$ 及对应的拉普拉斯矩阵 ${\tilde {\boldsymbol{ L}}} = {\tilde {\boldsymbol{D}}} - {\tilde {\boldsymbol{S}}}$

    直到收敛。

    在以上算法中,主要的计算复杂度为步骤①中的奇异值分解和矩阵求逆,故本算法时间复杂度最高为 $ O({n^2}d) $ ,假设算法迭代 $ T $ 次,则该部分的时间复杂度为 $ O(T{n^2}d) $ ,从而整个算法的时间复杂度为 $ O(T{n^2}d) $

    在本节中,通过进行大量实验以充分验证本文所提出方法的有效性和优越性。在展示结果之前,首先提供一些详细的实验方案。

    1) 数据集:实验中使用了6个公共数据集,包括2个人脸数据集ORL[19]和BIO[20],1个物体数据集COIL20[21],1个手写字数据集BA[22],1个树叶数据集LEAVES[23]以及1个生物学数据集LUNG[24]。数据集的详细信息见表1图1所示。

    表  1  数据集信息
    Table  1  Detail introduction to datasets
    数据集 样本数 特征数 类别数 选择特征数
    ORL 400 1024 40 50、100、···、300
    BIO 1460 1024 22 50、100、···、300
    COIL20 1440 1024 20 20、40、···、120
    BA 1404 320 36 20、40、···、120
    LEAVES 400 1024 10 50、100、···、300
    LUNG 203 3312 5 100、150、···、350
    图  1  部分数据集的图片
    Fig.  1  Visualization of some datasets
    下载: 全尺寸图片

    2) 对比算法:实验中将本文所提出的联合不相关回归和非负谱分析模型(joint uncorrelated regression and nonnegative spectral analysis for unsupervised feature selection, JURNFS)与5个特征选择方法进行了比较,分别是:无监督判别特征选择(L2,1-norm regularized discriminative feature selection for unsupervised learning, UDFS)[6]、非负判别性特征选择(unsupervised feature selection using nonnegative spectral analysis,NDFS)[8]、联合嵌入学习和稀疏回归(joint embedding learning and sparse regression: A framework for unsupervised feature selection,JELSR)[9]、最优结构图的特征选择(unsupervised feature selection with structured graph optimization,SOGFS)[10]和用于无监督特征选择的自适应图的广义不相关回归(generalized uncorrelated regression with adaptive graph for unsupervised feature selection,URAFS)[11]

    3) 评价指标:为了验证所选特征的优劣性,本文利用两个度量标准来衡量每种算法的性能,一个是识别精度(ACC)[25],定义:

    $${\text{ACC}} = \displaystyle\sum_{i = 1}^n {\delta \left( {{y_i},{{\hat y}_i}} \right)} / n$$

    式中: $ {y_i} $ 是每一个样本的真实标签; $ {\hat y_i} $ 是对应的预测标签;n是测试样本的数量;函数 $ \delta ( \cdot , \cdot ) $ 衡量两个输入参数之间的关系,如果两个参数相等则等于1,否则等于0,聚类精度越高,说明算法的效果越好;另一个评价指标是标准化互信(NMI)[26],定义:

    $$ {\text{NMI}} = {\rm{MI}}(C,{C'}){\text{/}}\max (\varGamma (C),\varGamma ({C'})), $$

    式中: $ C $ 是真实标签的集合; $ {C'} $ 是预测标签的集合; ${\rm{MI}}(C,{C'})$ 是互信息指标; $\varGamma (C)$ $\varGamma ({C'})$ 分别是 $ C $ $ {C'} $ 的熵。NMI越大,表示算法性能越稳定。

    4) 参数设置:本文通过网格搜索来确定每个算法的最优参数,所有算法的参数都是从{10−4, 10−3, 10−2, ···, 102, 103, 104}中选取。此外,在聚类实验中,本文采用流行的K-means聚类方法,用于对具有选定特征形成的新数据进行聚类,每个数据集的选择特征数在表1中列出。为减少K-means中随机起点触发的偶然性影响,对每种算法进行10次聚类,并计算平均值。对于分类实验,本文使用1-最近邻(1-NN)分类器对选定特征的测试图像数据进行分类。为了减少偏差,所有实验均重复运行10次以随机选择训练样本,最后计算平均分类结果。另外,K-means聚类方法中的K值设置为c,并且将每种方法中子空间的维数也都设置为c,除SOGFS的子空间维数设置为d/2。在UDFS、NDFS、JELSR、SOGFS和JURNFS中,最近邻k的数量设置为5。

    本节将不同方法的聚类精度进行比较,实验中将每个数据集的所有样本都用作训练集。首先,每个算法在每个数据集上进行学习以选择重要且具有判别性的特征,不同数据集所选特征数也不一样,具体细节见表1;然后,本文使用K-means聚类算法对由这些选择出的特征所形成的新样本进行聚类实验。图2给出了6个算法在6个数据集上的聚类精度,从图2可以看出,在大多数情况下,本文所提出的JURNFS相比其他算法都取得了比较好的效果,这证明了JURNFS的优越性。

    此外,1) 从图2(a)和(b)可知,JURNFS在人脸数据集上的效果远远领先于其他5个算法,并且JURNFS在ORL和BIO上相对于其他算法分别平均提升了约3.28%和4.75%,这是因为JURNFS通过学习数据的局部流形结构选择出了人脸上更具有判别性的特征,这些特征能够显著地代表原数据,因而获得了较高的聚类精度。2) 所有算法在COIL20和BA数据集上的聚类效果都比较接近,这可能是由于这两个数据集里的样本特征区分度信息不是很高,所有算法学习到了近似的局部结构,而JURNFS中采用的广义不相关约束在保留低冗余度特征的同时维持了对判别性部分特征的关注(如COIL20中物体的轮廓商标部分;BA中文字笔画拐弯部分),所以JURNFS的聚类效果仍能够优于其他算法。3) 在LEAVES和LUNG数据集上,所有算法的聚类效果随着所选特征数而波动。这也证明并不是选择的特征数越多,聚类效果越好。因为特征越多,冗余的特征也可能越多,因此有必要进行特征选择。而JURNFS采用低维流形结构化最优图学习和广义不相关回归联合学习的方式保留了判别性局部结构信息(如LEAVES中叶的根茎部,LUNG中的病灶部分),因此在处理非人脸数据集时仍能具有较好的性能。此外,可以发现LUNG数据集的数据量较大,标签类数只有5,因此每一类标签的训练数据集较大,这也可能是JURNFS优于其他算法的原因,因为在这种情况下JURNFS可以选择更准确、更判别性的特征。总之,通过特征选择获得的精炼的数据包含更多有价值的信息,而JURNFS通过广义不相关回归以及结构化最优图,所选择的特征更具判别性及有效性,因而可以获得更好的性能。

    图  2  6个算法在6个数据集上的聚类精度
    Fig.  2  Clustering accuracies of six methods on six different datasets
    下载: 全尺寸图片

    为了进一步说明JURNFS的优越性,表2给出了在6个不同的数据集上6种不同算法的标准偏差的最优NMI值,其中最优值以黑体加粗。一般而言,NMI值越高,特征选择的性能越好。显然,与其他特征选择算法相比,JURNFS的NMI相对较高,这也表明JURNFS具有更好的算法性能。

    表  2  不同数据集上不同方法的最佳NMI (标准偏差)
    Table  2  Best NMI with standard deviation of different methods on different data sets %
    NMI±STD ORL BIO COIL20 BA LEAVES LUNG
    UDFS 70.04±0.99 55.33±1.06 63.30±2.25 55.90±0.63 51.28±4.14 46.43±2.83
    NDFS 71.26±0.88 52.27±1.02 74.00±1.07 55.68±0.93 48.49±2.95 51.83±8.62
    JELSR 70.91±1.50 50.98±1.12 71.89±1.50 54.56±1.05 49.53±2.49 52.82±5.72
    SOGFS 72.76±1.14 47.98±1.61 70.65±2.82 57.08±1.32 43.49±1.68 49.78±6.60
    URAFS 71.69±2.30 52.58±0.85 70.57±1.83 55.93±1.28 48.43±2.95 51.79±5.51
    JURNFS 75.08±1.64 55.78±1.70 74.04±1.40 57.73±1.05 53.85±3.25 53.97±5.86

    本节将不同方法的分类精度进行比较,首先从不同数据集上的每个类中随机选取适当数量的样本作为训练样本,其余的作为测试样本。对于ORL、LEAVES和LUNG数据集,随机选取5个图像样本作为每类的训练样本,剩余的作为测试样本。对于BIO、BA和COIL20数据集,随机选取10个图像样本作为每个类的训练样本,剩余的作为测试样本。此外,不同的数据集在实验中选取的特征数量也不同(见表1)。

    图3描述了不同特征选择方法的分类精度随所选特征数量的增加而变化的情况。由该图可以发现JURNFS在所有数据集上都能取得很好的分类效果,这得益于JURNFS联合使用广义不相关回归和非负谱分析,在保留全局结构的同时自适应进行局部结构学习,很好地保留了特征的判别性信息,这些判别性特征在后续进行分类任务时起到了关键作用。

    图  3  6个算法在6个数据集上的分类精度
    Fig.  3  Classification accuracies of six methods on six different datasets
    下载: 全尺寸图片

    此外,图4通过重构图展示了部分算法在ORL数据集上选择的特征,不难看出:1) 随着选择特征数的变化,JURNFS可以选择信息量较大的特征(如眼睛、鼻子、嘴巴),并且JURNFS在选择特征数较少的情况下会优先选择具有判别性的特征;2) 对于SOGFS,尽管它在聚类任务中表现良好,但它选择的特征主要分布在皮肤区域,而不是人脸的区分器官特征。这表明边缘和轮廓上的特征有助于提高这些方法的聚类性能。

    本节将分析JURNFS中参数的稳定性。在所提出的模型(9)中,有3个参数:αβλ。其中,正则化参数α用于保证在学习相似矩阵 $ {\boldsymbol{S}} $ 时,每个样本都有机会成为 $ {{\boldsymbol{x}}_i} $ 的近邻;正则化参数β用于调整投影矩阵 $ {\boldsymbol{W}} $ 的稀疏性;正则化参数λ确保学习到的样本标签足够平滑。因此,参数αβλ共同调节回归与特征选择之间的效果。在实验中,可以根据文献[15]中的方法自适应确定参数α,因此,本节将专注于研究参数βλ对模型的影响。这里只给出JURNFS在数据集ORL、BIO和COIL20上的不同参数组合变化图。

    图  4  6个算法在ORL数据集上的重构图,所选特征个数从左到右依次为{150, 250, 350, 450, 550, 650, 1024}
    Fig.  4  Reconstruction graph of 6 algorithms on ORL data set, the number of selected features from left to right is {150, 250, 350, 450, 550, 650, 1024}
    下载: 全尺寸图片

    观察图5可知,在ORL和BIO数据集上,JURNFS受λ的影响较小,而随着β的增大,JURNFS的聚类效果显著提高。这可能是由于在人脸数据集上,JURNFS经过有限次迭代学习到的标签矩阵接近于真实标签,故λ对目标函数的影响不大,而随着β增大,使得 $ {\boldsymbol{W}} $ 更加稀疏,因而选择出的特征更加具有判别性及代表性,故聚类效果得到提升。在COIL20数据集上,JURNFS的聚类效果随着βλ的变化而波动,这表明此时βλ同时影响着JURNFS的聚类效果,并且随着β的增大,JURNFS的聚类精度会呈现出一个先增加后减少的趋势。因此在实验中,对于不同数据集仍需要找到一组合适的参数。

    为验证JURNFS算法的收敛性,本文考虑在数据集ORL和BA上验证式(9)中目标函数随迭代次数增加的变化情况。从图6可见,随着迭代次数增加,目标函数值单调减少,且在5次迭代后即可收敛,这也验证了JURNFS的高效性。

    图  5  JURNFS在不同数据集上不同参数组合的聚类精度
    Fig.  5  Clustering accuracies of JURNFS with different parameter combinations on different dataset, respectively
    下载: 全尺寸图片
    图  6  JURNFS在不同数据集上的收敛性
    Fig.  6  Convergence behaviors of JURNFS on different datasets
    下载: 全尺寸图片

    此外,本文还通过算法的运行时间来评估JURNFS的性能。本文将所有算法在ORL、BIO、COIL20和BA数据集上的聚类时间进行比较。不同算法的运行时间见表3。可以看到,JURNFS的运行时间与其他算法相比仍具有很好的竞争力。

    表  3  不同方法的运行时间
    Table  3  Computational time of different methods s
    算法 ORL BIO COIL20 BA
    UDFS 8.752 21.190 20.191 5.715
    NDFS 3.919 14.339 15.209 7.213
    JELSR 3.167 20.665 22.618 18.578
    SOGFS 12.275 16.779 17.968 12.589
    URAFS 5.436 13.217 14.344 9.357
    JURNFS 2.443 8.616 7.693 3.851

    本文提出了一种新颖的无监督特征选择方法,将广义不相关回归、结构化最优图和非负谱分析结合,通过广义不相关回归模型选择不相关和判别性的特征,利用结构化最优图自适应学习数据间的局部结构信息,同时结合非负谱聚类来学习局部流形中的标签矩阵,这使得所学习到的标签矩阵更真实可靠。文中还提出了一个有效的迭代算法来求解提出的模型,并在真实数据集上进行了大量实验证明了该方法的有效性和优越性。后续的工作主要集中在以下2个方面: 1) 提高算法在不同噪声(如光照、遮挡等)水平下的鲁棒性;2) 提高算法处理高维数据的速度。

  • 图  1   部分数据集的图片

    Fig.  1   Visualization of some datasets

    下载: 全尺寸图片

    图  2   6个算法在6个数据集上的聚类精度

    Fig.  2   Clustering accuracies of six methods on six different datasets

    下载: 全尺寸图片

    图  3   6个算法在6个数据集上的分类精度

    Fig.  3   Classification accuracies of six methods on six different datasets

    下载: 全尺寸图片

    图  4   6个算法在ORL数据集上的重构图,所选特征个数从左到右依次为{150, 250, 350, 450, 550, 650, 1024}

    Fig.  4   Reconstruction graph of 6 algorithms on ORL data set, the number of selected features from left to right is {150, 250, 350, 450, 550, 650, 1024}

    下载: 全尺寸图片

    图  5   JURNFS在不同数据集上不同参数组合的聚类精度

    Fig.  5   Clustering accuracies of JURNFS with different parameter combinations on different dataset, respectively

    下载: 全尺寸图片

    图  6   JURNFS在不同数据集上的收敛性

    Fig.  6   Convergence behaviors of JURNFS on different datasets

    下载: 全尺寸图片

    表  1   数据集信息

    Table  1   Detail introduction to datasets

    数据集 样本数 特征数 类别数 选择特征数
    ORL 400 1024 40 50、100、···、300
    BIO 1460 1024 22 50、100、···、300
    COIL20 1440 1024 20 20、40、···、120
    BA 1404 320 36 20、40、···、120
    LEAVES 400 1024 10 50、100、···、300
    LUNG 203 3312 5 100、150、···、350

    表  2   不同数据集上不同方法的最佳NMI (标准偏差)

    Table  2   Best NMI with standard deviation of different methods on different data sets %

    NMI±STD ORL BIO COIL20 BA LEAVES LUNG
    UDFS 70.04±0.99 55.33±1.06 63.30±2.25 55.90±0.63 51.28±4.14 46.43±2.83
    NDFS 71.26±0.88 52.27±1.02 74.00±1.07 55.68±0.93 48.49±2.95 51.83±8.62
    JELSR 70.91±1.50 50.98±1.12 71.89±1.50 54.56±1.05 49.53±2.49 52.82±5.72
    SOGFS 72.76±1.14 47.98±1.61 70.65±2.82 57.08±1.32 43.49±1.68 49.78±6.60
    URAFS 71.69±2.30 52.58±0.85 70.57±1.83 55.93±1.28 48.43±2.95 51.79±5.51
    JURNFS 75.08±1.64 55.78±1.70 74.04±1.40 57.73±1.05 53.85±3.25 53.97±5.86

    表  3   不同方法的运行时间

    Table  3   Computational time of different methods s

    算法 ORL BIO COIL20 BA
    UDFS 8.752 21.190 20.191 5.715
    NDFS 3.919 14.339 15.209 7.213
    JELSR 3.167 20.665 22.618 18.578
    SOGFS 12.275 16.779 17.968 12.589
    URAFS 5.436 13.217 14.344 9.357
    JURNFS 2.443 8.616 7.693 3.851
  • [1] BLUM A L, LANGLEY P. Selection of relevant features and examples in machine learning[J]. Artificial Intelligence, 1997, 97(1-2): 245–271. doi: 10.1016/S0004-3702(97)00063-5
    [2] LIU H, MOTODA H. Feature selection for knowledge discovery and data mining[M]. Boston: Kluwer Academic Publishers, 1998: 1−214.
    [3] SAEYS Y, INZA I, LARRANAGA P. A review of feature selection techniques in bioinformatics[J]. Bioinformatics (Oxford, England), 2007, 23(19): 2507–2517. doi: 10.1093/bioinformatics/btm344
    [4] ZHANG R, NIE F P, LI X L. Self-weighted supervised discriminative feature selection[J]. IEEE transactions on neural networks and learning systems, 2018, 29(8): 3913–3918. doi: 10.1109/TNNLS.2017.2740341
    [5] NIE F P, HUANG H, CAI X, et al. Efficient and robust feature selection via joint L2,1 -norms minimization[C]//International Conference on Neural Information Processing Systems. Vancouver, Canada, 2010: 1813−1821.
    [6] YANG Y, SHEN H T, MA Z G, et al. L2,1-Norm regularized discriminative feature selection for unsupervised learning[C]// Proceedings of the Twenty-Second International Joint Conference on Artificial Intelligence. Barcelona, Spain, 2011: 1589–1594
    [7] NIE F P, XU D, TSANG I W, et al. Flexible manifold embedding: a framework for semi-supervised and unsupervised dimension reduction[J]. IEEE transactions on image processing, 2010, 19(7): 1921–1932. doi: 10.1109/TIP.2010.2044958
    [8] LI Z C, YANG Y, LIU J, et al. Unsupervised feature selection using nonnegative spectral analysis[C]// Proceedings of the National Conference on Artificial Intelligence. Toronto, Canada, 2012: 1026−1032.
    [9] HOU C P, NIE F P, Li X L, et al. Joint embedding learning and sparse regression: A framework for unsupervised feature selection[J]. IEEE transactions on systems, man, and cybernetics, 2014, 44(6): 793–804.
    [10] NIE F P, ZHU W, LI X L. Unsupervised feature selection with structured graph optimization[C]//Proceedings of the National Conference on Artificial Intelligence. Phoenix, USA, 2016: 1302–1308.
    [11] LI X L, ZHANG H, ZHANG R, et al. Generalized uncorrelated regression with adaptive graph for unsupervised feature selection[J]. IEEE transactions on neural networks and learning systems, 2019, 30(5): 1587–1595. doi: 10.1109/TNNLS.2018.2868847
    [12] NIE F P, WANG X Q, HUANG H. Clustering and projected clustering with adaptive neighbors[C]//knowledge discovery and data mining. New York, USA, 2014: 977−986.
    [13] NIE F P, WU D Y, WANG R, et al. Self-weighted clustering with adaptive neighbors[J]. IEEE transactions on neural networks and learning systems, 2020, 31(9): 3428–3441. doi: 10.1109/TNNLS.2019.2944565
    [14] JERIBI A. Spectral graph theory[M]. Providence: Published for the Conference Board of the mathematical sciences by the American Mathematical Society, 1997.
    [15] FAN K. On a theorem of weyl concerning eigenvalues of linear transformations ii[J]. Proceedings of the National Academy of Sciences, 1949, 35(11): 652–655. doi: 10.1073/pnas.35.11.652
    [16] NIE F P, ZHANG R, LI X L, et al. A generalized power iteration method for solving quadratic problem on the stiefel manifold[J]. Science China information sciences, 2017, 60(11): 142–151.
    [17] LEE D D, SEUNG H S. Algorithms for non-negative matrix factorization[C]//International Conference on Neural Information Processing Systems. Cambridge, USA, 2000: 556−562.
    [18] HUANG J, NIE F P, HUANG H. A new simplex sparse learning model to measure data similarity for clustering[C]//International Conference on Artificial Intelligence. Buenos Aires, Argentina, 2015: 3569–3575.
    [19] SAMARIA F S, HARTER A. Parameterisation of a stochastic model for human face identification[C]//Proceedings of 1994 IEEE Workshop on Applications of Computer Vision. Sarasota, USA. 1994: 138−142.
    [20] JESORSKY O, KIRCHBERG K J, FRISCHHOLZ R, et al. Robust face detection using the hausdorff distance[J]. Lecture notes in computer science, 2001, 2091: 90–95.
    [21] NENE S A, NAYAR S K, MURASE H. Columbia Object Image Library (COIL-20)[R]. CUCS-005-96, Department of Computer Science, Columbia University, 1996(CUCS-005-96).
    [22] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J, et al. Eigenfaces vs. fisher faces: recognition using class specific linear projection[J]. IEEE transactions on pattern analysis and machine intelligence, 1997, 19(7): 711–720. doi: 10.1109/34.598228
    [23] MALLAH C D, ORWELL J. Probabilistic classification from a K-Nearest-Neighbour classifier[J]. Computational research, 2013, 1(1): 1–9. doi: 10.13189/cr.2013.010101
    [24] SINGH D, FEBBO P G, ROSS K N, et al. Gene expression correlates of clinical prostate cancer behavior[J]. Cancer cell, 2002, 1(2): 203–209. doi: 10.1016/S1535-6108(02)00030-2
    [25] PAPADIMITRIOU C H, STEIGLITZ K. Combinatorial Optimization: algorithms and complexity[J]. IEEE transactions on acoustics speech and signal processing, 1982, 32(6): 1258–1259.
    [26] HE X F, CAI D, NIYOGI P. Laplacian score for feature selection[C]//Advances in Neural Information Processing Systems. Vancouver, Canada, 2005: 507-514.
WeChat 点击查看大图
图(6)  /  表(3)
出版历程
  • 收稿日期:  2020-12-18
  • 网络出版日期:  2021-10-15

目录

    /

    返回文章
    返回