广东工业大学学报  2021, Vol. 38Issue (3): 22-28, 47.  DOI: 10.12052/gdutxb.200120.
0

引用本文 

蔡昊, 刘波. 半监督两个视角的多示例聚类模型[J]. 广东工业大学学报, 2021, 38(3): 22-28, 47. DOI: 10.12052/gdutxb.200120.
Cai Hao, Liu Bo. A Semi-supervised Two-view Multiple-Instance Clustering Model[J]. JOURNAL OF GUANGDONG UNIVERSITY OF TECHNOLOGY, 2021, 38(3): 22-28, 47. DOI: 10.12052/gdutxb.200120.

基金项目:

国家自然科学基金资助项目(61876044)

作者简介:

蔡昊(1992–),男,博士研究生,主要研究方向为数据挖掘,E-mail:caiyh9658@163.com

通信作者

刘波(1978–),男,教授,博士,主要研究方向为机器学习、数据挖掘,E-mail:csbliu@gmail.com

文章历史

收稿日期:2020-09-17
半监督两个视角的多示例聚类模型
蔡昊, 刘波    
广东工业大学 自动化学院,广东 广州 510006
摘要: 提出了一种新的半监督两个视角的多示例聚类模型, 整合文本视角和图像视角解决了伴有少量标签的多示例图像聚类问题。提出的模型首先嵌入概念分解和多示例核成为一个整体, 学习每个视角的关联矩阵和两个视角所共享的聚类指示矩阵。而后, 应用 ${l_{2, 1}}$ 范数学习最优的关联矩阵和聚类指示矩阵。进一步地, 为了增加包之间的判别力, 提出的模型强迫相同标签包的聚类指示向量间的相似性趋于1, 不同标签包的指示向量间的相似性趋于0。最后, 给出一种迭代更新算法优化提出的模型。实验结果表明,提出的模型优于现有的多示例聚类模型。
关键词: 多示例学习    多视角学习    概念分解    多示例核函数    
A Semi-supervised Two-view Multiple-Instance Clustering Model
Cai Hao, Liu Bo    
School of Automation, Guangdong University of Technology, Guangzhou 510006, China
Abstract: A novel semi-supervised two-view multi-instance clustering model is proposed, which bands text-view with image-view and solves the multi-instance image clustering problem with a small amount of label. Firstly, the proposed model embeds Concept Factorization and multi-instance kernel into a joint framework, which learns the association matrix of each view and the cluster indicator matrix shared by both views. Then, a ${l_{2, 1}}$ -norm is applied to learn the optimal association matrix and cluster indicator matrix. Furthermore, to enhance the discriminability between bags, the proposed model enforces the similarity of the cluster indicators for the bag with the same label to approximate 1 and the similarity with different labels to 0. Finally, an iterative updating algorithm is derived to solve the proposed model. The experimental results show that the proposed model is superior to other multi-instance clustering models.
Key words: multi-instance learning    multi-view learning    concept factorization    multi-instance kernel function    

在大数据时代,许多应用领域均包含大量的图像数据[1-2],图像聚类能够有效地处理这些图像数据,因此得到了广泛的关注。目前大量的图像聚类方法[3-4]已经被提出。例如,Ren等[3]提出了一种基于深度密度的图像聚类框架,其首先使用深度卷积自编码去提取图像的低维度特征,而后使用基于密度的聚类方法进行聚类。Yang等[4]为图像聚类提出了一种对偶约束的非负矩阵分解算法,其中一个约束用来保持图像标签特征,而另一个约束用来增强图像表示的稀疏性。

近年来,多示例学习也在图像处理中引起了广泛的关注[5-6]。针对于多示例图像聚类,Zhang等[6]提出了一种大边缘的多示例图像聚类框架,他们首先识别最相关的示例,而后划分这些示例进入几个不同的组。此外,在图像聚类中,人们可以获得除了图像本身之外的其他信息。例如文本信息,其能够完整地描述相应图像的内容。在现实生活中,很容易收集到大量的图像信息和文本信息,并构造它们成两个视角的数据集去解决图像聚类问题。进一步地,也可以为少量的图像添加标签信息,以提高聚类的性能。

本文提出了一种半监督两个视角的多示例聚类模型,其将文本视角引入图像视角去解决具有少量标签的图像聚类问题。该模型首先嵌入概念分解[7]和多示例核成为一个整体,学习每个视角的关联矩阵和两个视角所共享的聚类指示矩阵;随后,模型引入 ${l_{2,1}}$ 范数去学习最优的关联矩阵和聚类指示矩阵。进一步地,为了提高包之间的判别力,模型强迫具有相同标签包的聚类指示向量间的相似性趋于1,不同标签包的指示向量间的相似性趋于0。本文的主要贡献如下:

(1) 提出了一个新的模型,即半监督两个视角的多示例图像聚类模型。该模型引入 ${l_{2,1}}$ 范数提高了包与聚类中心的关联度,同时也获得了理想的聚类指示矩阵。

(2) 基于已知的标签信息,提出的模型强迫包的聚类指示向量间的相似性趋于1或0,提高了包之间的判别力,有助于进一步区分包。

(3) 真实数据集上的实验结果显示:与已有的模型相比,提出的模型能够获得一个更好的聚类结果。

1 相关工作 1.1 多视角学习

通常而言,多视角学习一般先从不同的视角中学习多个特征,而后引入一个联合框架来融合这些特征。现有的多视角学习方法主要基于共识原则和互补原则[8]。共识原则认为不同视角之间存在一致性信息,这种信息应该得到最大化。而互补原则认为每个视角均包含其他视角所不具备的信息,应该使用多个视角去更全面地描述数据对象。基于共识原则,Zhou等[9]为每一个视角构建一个完整的图,而后通过自动加权方法强迫所有构造的图趋于一个共识图。基于互补原则,Cao等[10]利用希尔伯特−斯密特独立性准则去实现不同视角间的多样性,从而增强多视角表示之间的互补性;Wang等[11]提出了一种多样性的非负矩阵分解算法,其定义一个多样性项,该项迫使不同视角表示两两正交,从而实现视角间的互补。对于两种原则的组合,Liu等[12]提出了部分共享潜因子学习算法,该算法主要学习一个潜在表示,该表示是由多个视角所共享的一致信息和每个视角的互补信息所组成。

1.2 多示例学习

多示例学习是一种弱监督学习方法,其训练数据以包的形式存在,而包由多个示例组成。数据的标签信息与整个包相关联,而包中示例标签是未知的。现有的多示例学习方法主要基于包水平和示例水平[13]。基于包水平的方法通常将每个包视为一个整体,而后从每个包中提取目标概念来预测包的标签。相反,基于示例水平的方法尝试识别关键示例,通过预测关键示例的标签来获得包标签。在基于包水平的方法中,Melki等[14]提出了多示例表示支持向量机。它学习一个包的表示选择器,其能够选择出对分类影响较大的示例,并将其作为包的表示卷入到支持向量机中去寻找最优的分离超平面。在基于示例水平的方法中,一个典型的例子是多示例支持向量机 (Multiple-instance Support Vector Machine,mi-SVM[15]),通过对训练包中的示例进行分类,mi-SVM得到一个最优的分离超平面,该超平面可以在每个正的训练包中至少分离出一个正示例。因此,当一个未知包通过该超平面获得一个正示例时,未知包被预测为正。

2 半监督两个视角的多示例聚类模型

本节首先提出半监督两个视角的多示例聚类模型,而后给出一个迭代更新算法去优化这个目标模型,最后,为提出的目标模型引入两个多示例核函数。

2.1 目标模型

首先给出两个视角的 $m$ 个包的数据集 ${{{B}}^v} = $ $ \{ {{B}}_1^v, \cdot \cdot \cdot ,{{B}}_m^v\} _{v = 1}^2$ ,其中 ${{B}}_i^v = \{ {{b}}_{i1}^v, \cdot \cdot \cdot ,{{b}}_{i{m_i}}^v\} $ 为第 $v$ 个视角中的第 $i$ 个包,且包含 ${m_i}$ 个示例。假设前 $l$ 个包的标签信息已知,余下包的标签信息未知。本文的目标是将这 $m$ 个包划分为 $c$ 组。考虑一个映射函数 $\phi $ ,其能够有效地压缩一个包矩阵成一个向量,即 $ {{B}}_{i}^{v} \to\phi ({{B}}_{i}^{v})$ $ {{B}}^{v}\to\phi ({{B}}^{v})=(\phi ({{B}}_{i}^{v}),\phi ({{B}}_{2}^{v}), \cdots ,\phi ({{B}}_{m}^{v}))$ 。通过使用概念分解算法[7],两个视角的多示例聚类公式被构造为

$ {\displaystyle \sum _{v=1}^{2}\Vert \phi ({{B}}^{v})-\phi ({{B}}^{v}){{W}}^{v}{({{H}}^{v})}^{\rm{T}}{\Vert }_{F}^{2}}$ (1)

其中 ${{W}}^v$ 为关联矩阵, ${{{H}}^v}$ 为聚类指示矩阵;由于两个视角具有相同的聚类结构,故两个视角的聚类指示矩阵是相同的,即 ${{{H}}^1} = {{{H}}^2} = {{H}}$ 。式(1)可以转化为

$ {\displaystyle \sum _{v=1}^{2}\Vert \phi ({{B}}^{v})-\phi ({{B}}^{v}){{W}}^{v}{{H}}^{\rm{T}}{\Vert }_{F}^{2}}$ (2)

具体地说,对于第 $v$ 个视角,式(2)可写为

$\phi ({{B}}_i^v) \approx \sum\limits_c {{{{H}}_{ic}}} {{R}}_c^v = \sum\limits_c {{{{H}}_{ic}}} \sum\limits_i {{{W}}_{ic}^v} \phi ({{B}}_i^v)$ (3)

其中 ${{R}}_c^v$ 属于第 $c$ 个聚类中心点, ${{{W}}_{ic}}^v$ 属于第 $i$ 个包与第 $c$ 个聚类中心点的关联度;显然地,这里存在大量的包与第 $c$ 个聚类中心点无关,即 ${{{W}}^v}$ 的第 $c$ 列包含大量的0,因此 ${{{W}}^v}$ 的第 $c$ 列是稀疏的;进一步地,因 ${{{W}}^v}$ 的每一列均存在上述类似现象,故 ${{{W}}^v}$ 是列稀疏的。又因为每一个包只属于一个类,与其他的类不相干,所以聚类指示矩阵 ${{H}}$ 的每一行中也存在大量的0,即 ${{H}}$ 是行稀疏的。这里引入 ${l_{2,1}}$ 范数去实现稀疏性,即

$ {\displaystyle \sum _{v=1}^{2}\Vert \phi ({{B}}^{v})-\phi ({{B}}^{v}){{W}}^{v}{{H}}^{\rm{T}}{\Vert }_{F}^{2}}+\alpha \Bigg\{\displaystyle \sum _{v=1}^{2}\Vert ({{W}}^{v})^{\rm{T}}{\Vert }_{2,1}+\Vert {{H}}{\Vert }_{2,1}\Bigg\} $ (4)

此外,少量的标签信息也很容易获得。如果两个包具有相同的标签信息,则它们的聚类指示向量应该相同或者高度相似;反之,标签信息不同,则聚类指示向量应该不同或者极其不相似。为了方便,这里使用内积去权衡相似性,即相同标签包的聚类指示向量间的内积应趋于1,不同标签包的指示向量间的内积应趋于0。具体公式表达如下:

$ \Vert {{P}}\circ ({{HH}}^{\rm{T}}-{{Q}}){\Vert }_{F}^{2}$ (5)

其中 $ \circ $ 表示矩阵间的点乘; ${{Q}}$ 是相似矩阵,基于已知的标签信息, ${{Q}}$ 通过式(6)定义。

$ {{{Q}}_{ij}} = \left\{ {\begin{array}{*{20}{c}} {1,}&{i = j\;{\text{或者}}{{B}}_i^v{\text{与}}{{B}}_j^v{\text{标签相同}}}\\ {0,}&{{\text{其他}}} \end{array}} \right. $ (6)

${{P}}$ 是选择矩阵,其能够选择出前 $l$ 个已知标签包的聚类指示向量,并强迫它们的内积趋于1或0;此外, ${{P}}$ 也选择出所有包的聚类指示向量,并强迫向量自身内积趋于1; ${{P}}$ 通过式(7)定义。

$ {{P}}_{ij} = \left\{ {\begin{array}{*{20}{c}} {1,}&{i = j\;{\text{或者}}1\leqslant i,j\leqslant l}\\ {0,}&{{\text{其他}}} \end{array}} \right. $ (7)

最后,组合式(4)和式(5),获得最终的目标方程:

$ \begin{split} & \mathop {\min }\limits_{{{{W}}^v},{{H}}} \sum\limits_{v = 1}^2 {||\phi ({{{B}}^v}) - \phi ({{{B}}^v}){{{W}}^v}{{{H}}^{\rm{T}}}||_F^2} + \alpha \Bigg\{ \sum\limits_{v = 1}^2 {||(} {{{W}}^v})^{\rm{T}}|{|_{2,1}} + \Bigg.\\&\qquad\Bigg. ||{{H}}|{|_{2,1}}\Bigg\} + \beta ||{{P}} \circ ({{H}}{{{H}}^{\rm{T}}} - {{Q}})||_F^2\\&\qquad {\rm{s}}{\rm{.t}}{\rm{.}}\quad {{{W}}^v},\;{{H}} \geqslant 0,\;\alpha ,\;\beta \geqslant 0 \end{split}$ (8)

其中 $\alpha $ 为稀疏约束参数, $\;\beta $ 为相似性约束参数。

2.2 模型优化

由于式(8)的变量 ${{{W}}^v}$ ${{H}}$ 均是未知的,因此目标模型无法求得全局最优解。但是可以使用一个迭代更新算法去求其局部最优解。通过定义 ${{{K}}^v} = $ $ \phi {({{{B}}^v})^{\rm{T}}}\phi ({{{B}}^v})$ ,式(8)被重写为

$ \begin{split} & {\cal {O}} = \sum\limits_{v = 1}^2 {{\rm{Tr}}({{({{I}} - {{{W}}^v}{{{H}}^{\rm{T}}})}^{\rm{T}}}\phi {{({{{B}}^v})}^{\rm{T}}}\phi ({{{B}}^v})({{I}} - {{{W}}^v}{{{H}}^{\rm{T}}}))} + \\& \alpha \Bigg\{ \sum\limits_{v = 1}^2 {||(} {{{W}}^v})^{\rm{T}}|{|_{2,1}} + ||{{H}}|{|_{2,1}}\Bigg\} + \\& \;\beta {\rm{Tr}}(({{P}} \circ ({{H}}{{{H}}^{\rm{T}}} - {{Q}})){({{P}} \circ ({{H}}{{{H}}^{\rm{T}}} - {{Q}}))^{\rm{T}}}) = \\& \sum\limits_{v = 1}^2 {({\rm{Tr}}(} {{{K}}^v}) - 2{\rm{Tr}}({({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{H}}) + {\rm{Tr}}({({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{{W}}^v}{{{H}}^{\rm{T}}}{{H}})) + \\& \alpha \Bigg\{\sum\limits_{v = 1}^2 {||(} {{{W}}^v})^{\rm{T}}|{|_{2,1}}+||{{H}}|{|_{2,1}}\Bigg\}+\beta {\rm{Tr}}(({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}))(({{H}}{{{H}}^{\rm{T}}})\circ{{{P}}^{\rm{T}}}))- \\& 2{\rm{Tr}}(({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}))({{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}})) + {\rm{Tr}}(({{P}} \circ {{Q}})({{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}})) \end{split}$ (9)

分别为 ${{{W}}^v} \geqslant 0$ ${{H}} \geqslant 0$ 引入拉格朗日乘子 ${{{\lambda}} ^v}$ ${{\gamma}} $ ,可获得式(9)的拉格朗日方程:

$L = {\cal{O}} - \mathop \sum \limits_{v = 1}^2 {{\rm{Tr}}}({{{\lambda}} ^v}{({{{W}}^v})^{\rm{T}}}) - {{\rm{Tr}}}({{\gamma}} {{{H}}^{\rm{T}}})$ (10)

而后求 $L$ 关于 ${{{W}}^v}$ ${{H}}$ 的偏导,可获得如下方程:

$\frac{{\partial L}}{{\partial {{{W}}^v}}} = - 2{{{K}}^v}{{H}} + 2{{{K}}^v}{{{W}}^v}{{{H}}^T}{{H}} + 2\alpha {{{W}}^v}{{D}}_1^v - {{{\lambda}} ^v}$ (11)
$ \begin{split} & \frac{{\partial L}}{{\partial {{H}}}} = \mathop \sum \limits_{v = 1}^2 ( - 2{{{K}}^v}{{{W}}^v} + 2{{H}}{({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{{W}}^v}) + 2\alpha {{{D}}_2}{{H}} + \\& 4\beta ({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}) \circ {{{P}}^{\rm{T}}}){{H}} - 4\beta ({{P}} \circ {{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}}){{H}} + \\& 8\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}}) - 8\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}}) - {{\gamma}} \end{split} $ (12)

其中 ${{D}}_{1},\;{{D}}_{2}$ 为对角阵,其对角元素为

${({{D}}_1^v)_{ii}} = \frac{1}{{2||({{{W}}^v})_i^{\rm{T}}|{|_2}}},{\rm{ }}{({{{D}}_2})_{ii}} = \frac{1}{{2||{{{H}}_i}|{|_2}}}$ (13)

通过使用KKT条件 $ {{{\lambda}} }_{{}_{ij}}^{v}{{w}}_{ij}^{v}=0,\;{{{\gamma}} }_{ij}{{h}}_{ij}=0$ ,可获得

${({{{K}}^v}{{{W}}^v}{{{H}}^{\rm{T}}}{{H}} + \alpha {{{W}}^v}{{D}}_1^v)_{ij}}{{w}}_{ij}^v - {({{{K}}^v}{{H}})_{ij}}{{w}}_{ij}^v = 0$ (14)
$ \begin{split} & \Bigg(\mathop \sum \limits_{v = 1}^2 {{H}}{({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{{W}}^v} + \alpha {{{D}}_2}{{H}} + 2\beta ({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}) \circ {{{P}}^{\rm{T}}}){{H}} + \Bigg. \\&\Bigg. 4\beta ({{P}} \circ {{P}})({{HH}} \circ {{H}} \circ {{H}})\Bigg)_{ij}{{{h}}_{ij}} - \Bigg(\mathop \sum \limits_{v = 1}^2 {{{K}}^v}{{{W}}^v} + \Bigg. \\&\Bigg. 2\beta ({{P}} \circ {{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}}){{H}} + 4\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}})\Bigg)_{ij}{{{h}}_{ij}} = 0 \end{split} $ (15)

随后,可获得如下更新规则:

${{w}}_{ij}^v \leftarrow {\rm{ }}{{w}}_{ij}^v\frac{{{{({{{K}}^v}{{H}})}_{ij}}}}{{{{({{{K}}^v}{{{W}}^v}{{{H}}^{\rm{T}}}{{H}} + \alpha {{{W}}^v}{{D}}_1^v)}_{ij}}}} $ (16)
$ {{{h}}_{ij}} \leftarrow {{{h}}_{ij}}\frac{{{{{\varUpsilon}} _{ij}}}}{{{{{\varGamma}} _{ij}}}} $ (17)

其中

$ \begin{split} & {{\varUpsilon}} = \mathop \sum \limits_{v = 1}^2 {{{K}}^v}{{{W}}^v} + 2\beta ({{P}} \circ {{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}}){{H}} + 4\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}}) \\ & {{\varGamma}} = \sum\limits_{v = 1}^2 {{H}} {({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{{W}}^v} + \alpha {{{D}}_2}{{H}} + 2\beta ({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}) \circ {{{P}}^{\rm{T}}}){{H}} + \\ & 4\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}}) \end{split} $

通过迭代的更新式(16)和式(17),目标模型(8)能够被优化。

2.3 多示例核

本节介绍两个多示例核方法,它们能够嵌入到目标模型(8)中。

2.3.1 混合模型核

该核方法[16]首先为每个包 ${{{B}}_s} = \{ {{{b}}_i}\} _{i = 1}^m$ 定义其高斯混合模型 $\{ ({{\bf{\Lambda}} _j},{\omega _j})\} _{j = 1}^K$ 的聚合后验:

$\phi ({{{B}}_s}) = \displaystyle\sum\limits_{i = 1}^m {\left(\frac{{{\omega _1}{\rm{pr}}({{{b}}_i}|{{\bf{\Lambda}} _1})}}{{\displaystyle\sum\limits_{j = 1}^K {{\omega _j}} {\rm{pr}}({{{b}}_i}|{{\bf{\Lambda}} _j})}}, \cdot \cdot \cdot ,\frac{{{\omega _K}{\rm{pr}}({{{b}}_i}|{{\bf{\Lambda}} _K})}}{{\displaystyle\sum\limits_{j = 1}^K {{\omega _j}} {\rm{pr}}({{{b}}_i}|{{\bf{\Lambda}} _j})}}\right)} $ (18)

借助于式(18),两个包 $ {{B}}_{s},\;{{B}}_{t}$ 的多示例核函数被定义为

$ K({{B}}_{s},{{B}}_{t})=\langle \phi ({{B}}_{s}),\phi ({{B}}_{t})\rangle $ (19)

其中 $ \langle \cdot ,\;\cdot \rangle $ 是内积运算。

2.3.2 极大极小核

该核方法[17]首先定义包的映射函数 $\phi $

$ \phi ({{B}}_{s})=(\underset{{{b}}\in {{B}}_{s}}{\rm{min}}{{b}}_{1}, \cdots ,\underset{{{b}}\in {{B}}_{s}}{\rm{min}}{{b}}_{d},\underset{{{b}}\in {{B}}_{s}}{\rm{max}}{{b}}_{1}, \cdots ,\underset{{{b}}\in {{B}}_{s}}{\rm{max}}{{b}}_{d})$ (20)
$ \phi ({{B}}_{t})=(\underset{{{b}}\in {{B}}_{t}}{\rm{min}}{{b}}_{1}, \cdots ,\underset{{{b}}\in {{B}}_{t}}{\rm{min}}{{b}}_{d},\underset{{{b}}\in {{B}}_{t}}{\rm{max}}{{b}}_{1}, \cdots ,\underset{{{b}}\in {{B}}_{t}}{\rm{max}}{{b}}_{d})$ (21)

通过使用 $\phi ({{{B}}_s})$ $\phi ({{{B}}_t})$ ,极大极小核[17]被定义为

$ K({{B}}_{s},{{B}}_{t})={(\langle \phi ({{B}}_{s}),\phi ({{B}}_{t})\rangle +1)}^{p}$ (22)
3 实验 3.1 实验基线及设置

对于提出的两个视角的多示例聚类模型,它能够使用两个多示例核函数,即混合模型核与极大极小核。将两个核的模型分别命名为Ker1和Ker2。为了验证Ker1和Ker2的有效性,本文使用以下4种基线作为比较:

(1) 基线1为BAMIC1[18],其使用最小Hausdorff距离度量计算两个包中示例的最小距离,而后采用k-Medoids算法去划分包。定义最小Hausdorff距离度量为

$ {\rm{min}}\;H({{A}},{{B}})=\underset{{{a}}\in {{A}},{{b}}\in {{B}}}{\rm{min}}\Vert {{a}}-{{b}}\Vert $ (23)

(2) 基线2为BAMIC2[18],其使用最大Hausdorff距离度量计算两个包之间的示例距离,最后采用k-Medoids算法去划分包。定义最大Hausdorff距离度量为

$ {\rm{max}}\;H({{A}},{{B}})={\rm{max}}\{\underset{{{a}}\in {{A}}}{\rm{max}}\underset{{{b}}\in {{B}}}{\rm{min}}\Vert {{a}}-{{b}}\Vert ,\underset{{{b}}\in {{B}}}{\rm{max}}\underset{{{a}}\in {{A}}}{\rm{min}}\Vert {{b}}-{{a}}\Vert \} $ (24)

(3) 基线3为BAMIC3[18],其使用平均Hausdorff距离度量计算两个包之间的示例距离,最后采用k-Medoids算法去划分包。定义平均Hausdorff距离度量为

$ {\rm{ave }}\;{{H}}({{A}},{{B}})=\frac{{ \displaystyle\sum \limits_{{{a}}\in {{A}}}\underset{{{b}}\in {{B}}}{\rm{min}}}\Vert {{a}}-{{b}}\Vert +{ \displaystyle\sum\limits _{{{b}}\in {{B}}}\underset{{{a}}\in {{A}}}{\rm{min}}}\Vert {{b}}-{{a}}\Vert }{\left|{{A}}\right|+\left|{{B}}\right|}$ (25)

(4) 基线4为unKer1和unKer2,其是提出模型的两种无监督的比较方法,它们没有使用标签信息,而是直接初始化 ${{P}} = {{Q}} = {{I}}$ ,基线4的目的是验证半监督学习的优越性。

上述所有的基线均根据原始文献的建议设置参数。对于Ker1和Ker2,随机抽取每一类的5%的标签信息作为监督信息,其余标签信息未知。Ker1和Ker2中参数 $ \alpha ,\;\beta $ 的范围被设置为 $ [0.0001,\;0.001,\;0.01, $ $ \;0.1,\;1,\;10,\;100,\;1000]$ 。在Ker1中,设置参数 $K = 100$ ;对于Ker2,参考文献[17]设置参数 $p = 5$ 。为了避免随机性,基于不同的初始化值,算法运行10次,并记录相应的平均聚类精度。聚类精度定义为

${\rm{ACC}} = \frac{{\displaystyle\sum\limits_{i = 1}^N \delta ({{{t}}_i},{\rm{map}}({{{r}}_i}))}}{N}$ (26)

其中, $N$ 表示图像包的总数目, ${{{t}}_i}$ 为真实标签, ${{{r}}_i}$ 为算法所学习到的聚类标签; ${\rm{map}}({{{r}}_i})$ 为映射函数,其目的是映射 ${{{r}}_i}$ ,使之能与 ${{{t}}_i}$ 匹配; $\delta (x,y)$ $\delta $ 函数,当 $x = y$ 时, $\delta (x,y) = 1$ ,否则 $\delta (x,y) = 0$

3.2 数据集

NUS-WIDE数据集[19]是由新加坡国立大学所创立的图像数据集,其包含有269 648张图片,每张图片均有对应的文本描述。实验是从NUS-WIDE数据集中选择图像和相应的文本去构建2个不同的数据集。其一为NUS-WIDE1数据集,该数据集包含6种混合图像(actor,car_racing,fruit,insect,leopard,tunnel),共有2 605张图片。其二为NUS-WIDE2数据集,该数据集包含6种不同的花(即chrysanthemums,lily,orchid,poppies,rose,tulip),共有2 522张图片。

对于上述数据集,每一个文本被分割成一个文本包,每一张图像也被分割成一个图像包。3种不同的分割方法[20]分割图像并获得图像包,即K均值分割(K-means Segmentation,K-meansSeg)、局部二值模式(Local Binary Patterns,LBP) 和尺度不变特征变换(Scale Invariant Feature Transform,SIFT)。

3.3 实验结果

表1表2分别列出了不同模型在NUS-WIDE1数据集和NUS-WIDE2数据集的聚类精度,其中Avg为平均精度。对于Ker1和Ker2,表中列出的是模型在 $ \alpha =0.01, \;\beta =0.01$ 的聚类精度。从表1表2能够观察到提出的模型在聚类精度上是优于其他模型的。以NUS-WIDE1数据集为例,在K-meansSeg中,Ker1比其他的模型在平均精度上至少提高了4.17%;在LBP中,Ker2比其他的模型在平均精度上至少提高了5.91%;在SIFT中,Ker1比其他的模型在平均精度上至少提高了4.07%。这是因为提出的模型使用了标签信息,其监督着模型的学习进程,从而有效地提高了聚类的性能。

表 1 在NUS-WIDE1数据集中各模型的聚类精度对比 Table 1 The clustering accuracy comparisons of models on NUS-WIDE1 dataset
表 2 在NUS-WIDE2数据集中各模型的聚类精度对比 Table 2 The clustering accuracy comparisons of models on NUS-WIDE2 dataset
3.4 参数敏感性分析

本节着重构造实验研究参数 $ \alpha ,\;\beta $ 对模型性能的影响。对于模型Ker1和Ker2,参数的选择范围为 $ [0.0001, \;0.001, \;0.01, \;0.1, \;1, \;10, \;100, \;1000]$ 。在不同的正则化参数下,实验在NUS-WIDE1数据集中的两类数据上执行,对应的实验结果被展示在图1图2中。从图1中,能够观察到Ker1在参数 $ \alpha ,\;\beta $ 的大多数情况下的聚类精度均超过了65%。从图2中,能观察到Ker2的聚类精度在K-meansSeg和SIFT中随着参数 $ \alpha ,\;\beta $ 变化保持稳定;对于LBP,当 $ \alpha \leqslant 100,\;\beta \leqslant 1$ 时,Ker2的聚类精度大多数超过了75%。此外,从图1图2中,还可以观察到参数 $\;\beta$ 设置不大于1更合适。总之,Ker1和Ker2的聚类性能对于参数 $ \alpha ,\;\beta $ 的调整是相对鲁棒的。

图 1 NUS-WIDE1数据集内的两类数据的Ker1参数敏感性实验 Figure 1 Parameter sensitivity of Ker1 on the two-class data of NUS-WIDE1
图 2 NUS-WIDE1数据集内的两类数据的Ker2参数敏感性实验 Figure 2 Parameter sensitivity of Ker2 on the two-class data of NUS-WIDE1
3.5 收敛性分析

提出的模型采用迭代更新规则发现目标方程的局部极小值。为了研究模型的收敛性,有必要可视化模型(Ker1和Ker2)在更新规则下的收敛曲线。图3图4分别展示了提出的模型在NUS-WIDE1数据集内的两类数据上的收敛曲线。从图3图4中,能够观察到Ker1和Ker2随着迭代次数的增加是逐渐收敛的。

图 3 NUS-WIDE1数据集内的两类数据的Ker1的收敛曲线 Figure 3 Convergence curve of Ker1 on the two-class data of NUS-WIDE1
图 4 NUS-WIDE1数据集内的两类数据的Ker2的收敛曲线 Figure 4 Convergence curve of Ker2 on the two-class data of NUS-WIDE1
4 结语

本文提出了一种新的半监督两个视角的多示例聚类模型,其将文本视角和图像视角结合,有效地解决带有少量标签多示例图像聚类问题。通过嵌入概念分解和多示例核函数为一个整体,该模型为每个视角学习了一个关联矩阵,同时也获得了被两个视角所共享的聚类指示矩阵。而后,通过在关联矩阵和聚类指示矩阵上引入 ${l_{2,1}}$ 范数,模型不仅提高了包与聚类中心的关联度,也获得了最优的聚类指示矩阵。随后,基于已知的标签信息,模型强迫相同标签包的聚类指示向量的相似性趋于1,不同标签的指示向量相似性趋于0,这有效地提高了包之间的判别力。最后,一个迭代更新算法被提出,有效地优化了提出的模型。在真实数据集的实验结果表明,提出的模型在聚类精度上优于现有的多示例聚类模型。

参考文献
[1]
TIAN M W, YAN S R, TIAN X X, et al. Research on image recognition method of bank financing bill based on binary tree decision[J]. Journal of Visual Communication and Image Representation, 2019, 60: 123-128. DOI: 10.1016/j.jvcir.2018.12.016.
[2]
WANG P, ZHANG P F, LI Z W. A three-way decision method based on gaussian kernel in a hybrid information system with images: an application in medical diagnosis[J]. Applied Soft Computing, 2019, 77: 734-749. DOI: 10.1016/j.asoc.2019.01.031.
[3]
REN Y Z, WANG N, LI M X, et al. Deep density-based image clustering[J]. Knowledge-Based Systems, 2020, 197(7): 105841.
[4]
YANG Z Y, ZHANG Y, XIANG Y, et al. Non-negative matrix factorization with dual constraints for image clustering[J]. IEEE Transactions on Systems Man & Cybernetics Systems, 2018, 50(7): 1-10.
[5]
黎启祥, 肖燕珊, 郝志峰, 等. 基于抗噪声的多任务多示例学习算法研究[J]. 广东工业大学学报, 2018, 35(3): 47-53.
LI Q X, XIAO Y S, HAO Z F, et al. An algorithm based on multi-instance anti-noise learning[J]. Journal of Guangdong University of Technology, 2018, 35(3): 47-53. DOI: 10.12052/gdutxb.180036.
[6]
ZHANG D, WANG F, SI L, et al. Maximum margin multiple instance clustering with applications to image and text clustering[J]. IEEE Transactions on Neural Networks, 2011, 22(5): 739-751. DOI: 10.1109/TNN.2011.2109011.
[7]
XU W, GONG Y H. Document clustering by concept factorization[C]//Proceedings of the International ACM Sigir Conference on Research and Development in Information Retrieval. Sheffield: ACM, 2004: 202–209.
[8]
YANG Y, WANG H. Multi-view clustering: a survey[J]. Big Data Mining & Analytics, 2018, 1(2): 3-27.
[9]
ZHOU W, WANG H, YANG Y. Consensus graph learning for incomplete multi-view clustering[C]// Proceedings of the 23rd Pacific-asia Conference on Knowledge Discovery and Data Mining. Macau: ACM, 2019: 529-540.
[10]
CAO X C, ZHANG C Q, FU H Z, et al. Diversity-induced multi-view subspace clustering[C]//Proceedings of the IEEE Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 586–594.
[11]
WANG J, TIAN F, YU H C, et al. Diverse non-negative matrix factorization for multi-view data representation[J]. IEEE Transactions on Cybernetics, 2018, 48(9): 1-13. DOI: 10.1109/TCYB.2018.2859281.
[12]
LIU J, JIANG Y, LI Z C, et al. Partially shared latent factor learning with multiview data[J]. IEEE Transactions on Neural Networks, 2015, 26(6): 1233-1246. DOI: 10.1109/TNNLS.2014.2335234.
[13]
CARBONNEAU M A, CHEPLYGINA V, GRANGER E, et al. Multiple instance learning: a survey of problem characteristics and applications[J]. Pattern Recognition, 2017, 77: 329-353.
[14]
MELKI G, CANO A, VENTURA S. Mirsvm: multi-instance support vector machine with bag representatives[J]. Pattern Recognition, 2018, 79: 228-241. DOI: 10.1016/j.patcog.2018.02.007.
[15]
ANDERWS S, TSOCHANTARIDIS I, HOFMANN T. Support vector machines for multiple-instance learning[C]//Proceedings of the Neural Information Processing Systems. Vancouver: Nips, 2003: 577-584.
[16]
WANG H Y, YANG Q, ZHA H B. Adaptive p-posterior mixture-model kernels for multiple instance learning[C]//Proceedings of the International Conference on Machine Learning. Helsinki: ACM, 2008: 1136-1143.
[17]
GARTNER T, FLACH P A, KOWALCZYK A, et al. Multi-instance kernels[C]//Proceedings of the International Conference on Machine Learning. Sydney: ACM, 2002: 179-186.
[18]
ZHANG M L, ZHOU Z H. Multi-instance clustering with applications to multi-instance prediction[J]. Applied Intelligence, 2009, 31(1): 47-68. DOI: 10.1007/s10489-007-0111-x.
[19]
Chua T S, Tang J H, Hong R C, et al. Nus-wide: a real-world web image database from national university of singapore[C]//Proceedings of the ACM International Conference on Image and Video Retrieval. Santorini: ACM, 2009: 368-375.
[20]
WEI X S, ZHOU Z H. An empirical study on image bag generators for multi-instance learning[J]. Machine Learning, 2016, 105(2): 155-198. DOI: 10.1007/s10994-016-5560-1.