在大数据时代,许多应用领域均包含大量的图像数据[1-2],图像聚类能够有效地处理这些图像数据,因此得到了广泛的关注。目前大量的图像聚类方法[3-4]已经被提出。例如,Ren等[3]提出了一种基于深度密度的图像聚类框架,其首先使用深度卷积自编码去提取图像的低维度特征,而后使用基于密度的聚类方法进行聚类。Yang等[4]为图像聚类提出了一种对偶约束的非负矩阵分解算法,其中一个约束用来保持图像标签特征,而另一个约束用来增强图像表示的稀疏性。
近年来,多示例学习也在图像处理中引起了广泛的关注[5-6]。针对于多示例图像聚类,Zhang等[6]提出了一种大边缘的多示例图像聚类框架,他们首先识别最相关的示例,而后划分这些示例进入几个不同的组。此外,在图像聚类中,人们可以获得除了图像本身之外的其他信息。例如文本信息,其能够完整地描述相应图像的内容。在现实生活中,很容易收集到大量的图像信息和文本信息,并构造它们成两个视角的数据集去解决图像聚类问题。进一步地,也可以为少量的图像添加标签信息,以提高聚类的性能。
本文提出了一种半监督两个视角的多示例聚类模型,其将文本视角引入图像视角去解决具有少量标签的图像聚类问题。该模型首先嵌入概念分解[7]和多示例核成为一个整体,学习每个视角的关联矩阵和两个视角所共享的聚类指示矩阵;随后,模型引入
(1) 提出了一个新的模型,即半监督两个视角的多示例图像聚类模型。该模型引入
(2) 基于已知的标签信息,提出的模型强迫包的聚类指示向量间的相似性趋于1或0,提高了包之间的判别力,有助于进一步区分包。
(3) 真实数据集上的实验结果显示:与已有的模型相比,提出的模型能够获得一个更好的聚类结果。
1 相关工作 1.1 多视角学习通常而言,多视角学习一般先从不同的视角中学习多个特征,而后引入一个联合框架来融合这些特征。现有的多视角学习方法主要基于共识原则和互补原则[8]。共识原则认为不同视角之间存在一致性信息,这种信息应该得到最大化。而互补原则认为每个视角均包含其他视角所不具备的信息,应该使用多个视角去更全面地描述数据对象。基于共识原则,Zhou等[9]为每一个视角构建一个完整的图,而后通过自动加权方法强迫所有构造的图趋于一个共识图。基于互补原则,Cao等[10]利用希尔伯特−斯密特独立性准则去实现不同视角间的多样性,从而增强多视角表示之间的互补性;Wang等[11]提出了一种多样性的非负矩阵分解算法,其定义一个多样性项,该项迫使不同视角表示两两正交,从而实现视角间的互补。对于两种原则的组合,Liu等[12]提出了部分共享潜因子学习算法,该算法主要学习一个潜在表示,该表示是由多个视角所共享的一致信息和每个视角的互补信息所组成。
1.2 多示例学习多示例学习是一种弱监督学习方法,其训练数据以包的形式存在,而包由多个示例组成。数据的标签信息与整个包相关联,而包中示例标签是未知的。现有的多示例学习方法主要基于包水平和示例水平[13]。基于包水平的方法通常将每个包视为一个整体,而后从每个包中提取目标概念来预测包的标签。相反,基于示例水平的方法尝试识别关键示例,通过预测关键示例的标签来获得包标签。在基于包水平的方法中,Melki等[14]提出了多示例表示支持向量机。它学习一个包的表示选择器,其能够选择出对分类影响较大的示例,并将其作为包的表示卷入到支持向量机中去寻找最优的分离超平面。在基于示例水平的方法中,一个典型的例子是多示例支持向量机 (Multiple-instance Support Vector Machine,mi-SVM[15]),通过对训练包中的示例进行分类,mi-SVM得到一个最优的分离超平面,该超平面可以在每个正的训练包中至少分离出一个正示例。因此,当一个未知包通过该超平面获得一个正示例时,未知包被预测为正。
2 半监督两个视角的多示例聚类模型本节首先提出半监督两个视角的多示例聚类模型,而后给出一个迭代更新算法去优化这个目标模型,最后,为提出的目标模型引入两个多示例核函数。
2.1 目标模型首先给出两个视角的
$ {\displaystyle \sum _{v=1}^{2}\Vert \phi ({{B}}^{v})-\phi ({{B}}^{v}){{W}}^{v}{({{H}}^{v})}^{\rm{T}}{\Vert }_{F}^{2}}$ | (1) |
其中
$ {\displaystyle \sum _{v=1}^{2}\Vert \phi ({{B}}^{v})-\phi ({{B}}^{v}){{W}}^{v}{{H}}^{\rm{T}}{\Vert }_{F}^{2}}$ | (2) |
具体地说,对于第
$\phi ({{B}}_i^v) \approx \sum\limits_c {{{{H}}_{ic}}} {{R}}_c^v = \sum\limits_c {{{{H}}_{ic}}} \sum\limits_i {{{W}}_{ic}^v} \phi ({{B}}_i^v)$ | (3) |
其中
$ {\displaystyle \sum _{v=1}^{2}\Vert \phi ({{B}}^{v})-\phi ({{B}}^{v}){{W}}^{v}{{H}}^{\rm{T}}{\Vert }_{F}^{2}}+\alpha \Bigg\{\displaystyle \sum _{v=1}^{2}\Vert ({{W}}^{v})^{\rm{T}}{\Vert }_{2,1}+\Vert {{H}}{\Vert }_{2,1}\Bigg\} $ | (4) |
此外,少量的标签信息也很容易获得。如果两个包具有相同的标签信息,则它们的聚类指示向量应该相同或者高度相似;反之,标签信息不同,则聚类指示向量应该不同或者极其不相似。为了方便,这里使用内积去权衡相似性,即相同标签包的聚类指示向量间的内积应趋于1,不同标签包的指示向量间的内积应趋于0。具体公式表达如下:
$ \Vert {{P}}\circ ({{HH}}^{\rm{T}}-{{Q}}){\Vert }_{F}^{2}$ | (5) |
其中
$ {{{Q}}_{ij}} = \left\{ {\begin{array}{*{20}{c}} {1,}&{i = j\;{\text{或者}}{{B}}_i^v{\text{与}}{{B}}_j^v{\text{标签相同}}}\\ {0,}&{{\text{其他}}} \end{array}} \right. $ | (6) |
而
$ {{P}}_{ij} = \left\{ {\begin{array}{*{20}{c}} {1,}&{i = j\;{\text{或者}}1\leqslant i,j\leqslant l}\\ {0,}&{{\text{其他}}} \end{array}} \right. $ | (7) |
最后,组合式(4)和式(5),获得最终的目标方程:
$ \begin{split} & \mathop {\min }\limits_{{{{W}}^v},{{H}}} \sum\limits_{v = 1}^2 {||\phi ({{{B}}^v}) - \phi ({{{B}}^v}){{{W}}^v}{{{H}}^{\rm{T}}}||_F^2} + \alpha \Bigg\{ \sum\limits_{v = 1}^2 {||(} {{{W}}^v})^{\rm{T}}|{|_{2,1}} + \Bigg.\\&\qquad\Bigg. ||{{H}}|{|_{2,1}}\Bigg\} + \beta ||{{P}} \circ ({{H}}{{{H}}^{\rm{T}}} - {{Q}})||_F^2\\&\qquad {\rm{s}}{\rm{.t}}{\rm{.}}\quad {{{W}}^v},\;{{H}} \geqslant 0,\;\alpha ,\;\beta \geqslant 0 \end{split}$ | (8) |
其中
由于式(8)的变量
$ \begin{split} & {\cal {O}} = \sum\limits_{v = 1}^2 {{\rm{Tr}}({{({{I}} - {{{W}}^v}{{{H}}^{\rm{T}}})}^{\rm{T}}}\phi {{({{{B}}^v})}^{\rm{T}}}\phi ({{{B}}^v})({{I}} - {{{W}}^v}{{{H}}^{\rm{T}}}))} + \\& \alpha \Bigg\{ \sum\limits_{v = 1}^2 {||(} {{{W}}^v})^{\rm{T}}|{|_{2,1}} + ||{{H}}|{|_{2,1}}\Bigg\} + \\& \;\beta {\rm{Tr}}(({{P}} \circ ({{H}}{{{H}}^{\rm{T}}} - {{Q}})){({{P}} \circ ({{H}}{{{H}}^{\rm{T}}} - {{Q}}))^{\rm{T}}}) = \\& \sum\limits_{v = 1}^2 {({\rm{Tr}}(} {{{K}}^v}) - 2{\rm{Tr}}({({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{H}}) + {\rm{Tr}}({({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{{W}}^v}{{{H}}^{\rm{T}}}{{H}})) + \\& \alpha \Bigg\{\sum\limits_{v = 1}^2 {||(} {{{W}}^v})^{\rm{T}}|{|_{2,1}}+||{{H}}|{|_{2,1}}\Bigg\}+\beta {\rm{Tr}}(({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}))(({{H}}{{{H}}^{\rm{T}}})\circ{{{P}}^{\rm{T}}}))- \\& 2{\rm{Tr}}(({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}))({{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}})) + {\rm{Tr}}(({{P}} \circ {{Q}})({{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}})) \end{split}$ | (9) |
分别为
$L = {\cal{O}} - \mathop \sum \limits_{v = 1}^2 {{\rm{Tr}}}({{{\lambda}} ^v}{({{{W}}^v})^{\rm{T}}}) - {{\rm{Tr}}}({{\gamma}} {{{H}}^{\rm{T}}})$ | (10) |
而后求
$\frac{{\partial L}}{{\partial {{{W}}^v}}} = - 2{{{K}}^v}{{H}} + 2{{{K}}^v}{{{W}}^v}{{{H}}^T}{{H}} + 2\alpha {{{W}}^v}{{D}}_1^v - {{{\lambda}} ^v}$ | (11) |
$ \begin{split} & \frac{{\partial L}}{{\partial {{H}}}} = \mathop \sum \limits_{v = 1}^2 ( - 2{{{K}}^v}{{{W}}^v} + 2{{H}}{({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{{W}}^v}) + 2\alpha {{{D}}_2}{{H}} + \\& 4\beta ({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}) \circ {{{P}}^{\rm{T}}}){{H}} - 4\beta ({{P}} \circ {{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}}){{H}} + \\& 8\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}}) - 8\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}}) - {{\gamma}} \end{split} $ | (12) |
其中
${({{D}}_1^v)_{ii}} = \frac{1}{{2||({{{W}}^v})_i^{\rm{T}}|{|_2}}},{\rm{ }}{({{{D}}_2})_{ii}} = \frac{1}{{2||{{{H}}_i}|{|_2}}}$ | (13) |
通过使用KKT条件
${({{{K}}^v}{{{W}}^v}{{{H}}^{\rm{T}}}{{H}} + \alpha {{{W}}^v}{{D}}_1^v)_{ij}}{{w}}_{ij}^v - {({{{K}}^v}{{H}})_{ij}}{{w}}_{ij}^v = 0$ | (14) |
$ \begin{split} & \Bigg(\mathop \sum \limits_{v = 1}^2 {{H}}{({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{{W}}^v} + \alpha {{{D}}_2}{{H}} + 2\beta ({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}) \circ {{{P}}^{\rm{T}}}){{H}} + \Bigg. \\&\Bigg. 4\beta ({{P}} \circ {{P}})({{HH}} \circ {{H}} \circ {{H}})\Bigg)_{ij}{{{h}}_{ij}} - \Bigg(\mathop \sum \limits_{v = 1}^2 {{{K}}^v}{{{W}}^v} + \Bigg. \\&\Bigg. 2\beta ({{P}} \circ {{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}}){{H}} + 4\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}})\Bigg)_{ij}{{{h}}_{ij}} = 0 \end{split} $ | (15) |
随后,可获得如下更新规则:
${{w}}_{ij}^v \leftarrow {\rm{ }}{{w}}_{ij}^v\frac{{{{({{{K}}^v}{{H}})}_{ij}}}}{{{{({{{K}}^v}{{{W}}^v}{{{H}}^{\rm{T}}}{{H}} + \alpha {{{W}}^v}{{D}}_1^v)}_{ij}}}} $ | (16) |
$ {{{h}}_{ij}} \leftarrow {{{h}}_{ij}}\frac{{{{{\varUpsilon}} _{ij}}}}{{{{{\varGamma}} _{ij}}}} $ | (17) |
其中
$ \begin{split} & {{\varUpsilon}} = \mathop \sum \limits_{v = 1}^2 {{{K}}^v}{{{W}}^v} + 2\beta ({{P}} \circ {{{Q}}^{\rm{T}}} \circ {{{P}}^{\rm{T}}}){{H}} + 4\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}}) \\ & {{\varGamma}} = \sum\limits_{v = 1}^2 {{H}} {({{{W}}^v})^{\rm{T}}}{{{K}}^v}{{{W}}^v} + \alpha {{{D}}_2}{{H}} + 2\beta ({{P}} \circ ({{H}}{{{H}}^{\rm{T}}}) \circ {{{P}}^{\rm{T}}}){{H}} + \\ & 4\beta ({{P}} \circ {{P}})({{H}} \circ {{H}} \circ {{H}}) \end{split} $ |
通过迭代的更新式(16)和式(17),目标模型(8)能够被优化。
2.3 多示例核本节介绍两个多示例核方法,它们能够嵌入到目标模型(8)中。
2.3.1 混合模型核该核方法[16]首先为每个包
$\phi ({{{B}}_s}) = \displaystyle\sum\limits_{i = 1}^m {\left(\frac{{{\omega _1}{\rm{pr}}({{{b}}_i}|{{\bf{\Lambda}} _1})}}{{\displaystyle\sum\limits_{j = 1}^K {{\omega _j}} {\rm{pr}}({{{b}}_i}|{{\bf{\Lambda}} _j})}}, \cdot \cdot \cdot ,\frac{{{\omega _K}{\rm{pr}}({{{b}}_i}|{{\bf{\Lambda}} _K})}}{{\displaystyle\sum\limits_{j = 1}^K {{\omega _j}} {\rm{pr}}({{{b}}_i}|{{\bf{\Lambda}} _j})}}\right)} $ | (18) |
借助于式(18),两个包
$ K({{B}}_{s},{{B}}_{t})=\langle \phi ({{B}}_{s}),\phi ({{B}}_{t})\rangle $ | (19) |
其中
该核方法[17]首先定义包的映射函数
$ \phi ({{B}}_{s})=(\underset{{{b}}\in {{B}}_{s}}{\rm{min}}{{b}}_{1}, \cdots ,\underset{{{b}}\in {{B}}_{s}}{\rm{min}}{{b}}_{d},\underset{{{b}}\in {{B}}_{s}}{\rm{max}}{{b}}_{1}, \cdots ,\underset{{{b}}\in {{B}}_{s}}{\rm{max}}{{b}}_{d})$ | (20) |
$ \phi ({{B}}_{t})=(\underset{{{b}}\in {{B}}_{t}}{\rm{min}}{{b}}_{1}, \cdots ,\underset{{{b}}\in {{B}}_{t}}{\rm{min}}{{b}}_{d},\underset{{{b}}\in {{B}}_{t}}{\rm{max}}{{b}}_{1}, \cdots ,\underset{{{b}}\in {{B}}_{t}}{\rm{max}}{{b}}_{d})$ | (21) |
通过使用
$ K({{B}}_{s},{{B}}_{t})={(\langle \phi ({{B}}_{s}),\phi ({{B}}_{t})\rangle +1)}^{p}$ | (22) |
对于提出的两个视角的多示例聚类模型,它能够使用两个多示例核函数,即混合模型核与极大极小核。将两个核的模型分别命名为Ker1和Ker2。为了验证Ker1和Ker2的有效性,本文使用以下4种基线作为比较:
(1) 基线1为BAMIC1[18],其使用最小Hausdorff距离度量计算两个包中示例的最小距离,而后采用k-Medoids算法去划分包。定义最小Hausdorff距离度量为
$ {\rm{min}}\;H({{A}},{{B}})=\underset{{{a}}\in {{A}},{{b}}\in {{B}}}{\rm{min}}\Vert {{a}}-{{b}}\Vert $ | (23) |
(2) 基线2为BAMIC2[18],其使用最大Hausdorff距离度量计算两个包之间的示例距离,最后采用k-Medoids算法去划分包。定义最大Hausdorff距离度量为
$ {\rm{max}}\;H({{A}},{{B}})={\rm{max}}\{\underset{{{a}}\in {{A}}}{\rm{max}}\underset{{{b}}\in {{B}}}{\rm{min}}\Vert {{a}}-{{b}}\Vert ,\underset{{{b}}\in {{B}}}{\rm{max}}\underset{{{a}}\in {{A}}}{\rm{min}}\Vert {{b}}-{{a}}\Vert \} $ | (24) |
(3) 基线3为BAMIC3[18],其使用平均Hausdorff距离度量计算两个包之间的示例距离,最后采用k-Medoids算法去划分包。定义平均Hausdorff距离度量为
$ {\rm{ave }}\;{{H}}({{A}},{{B}})=\frac{{ \displaystyle\sum \limits_{{{a}}\in {{A}}}\underset{{{b}}\in {{B}}}{\rm{min}}}\Vert {{a}}-{{b}}\Vert +{ \displaystyle\sum\limits _{{{b}}\in {{B}}}\underset{{{a}}\in {{A}}}{\rm{min}}}\Vert {{b}}-{{a}}\Vert }{\left|{{A}}\right|+\left|{{B}}\right|}$ | (25) |
(4) 基线4为unKer1和unKer2,其是提出模型的两种无监督的比较方法,它们没有使用标签信息,而是直接初始化
上述所有的基线均根据原始文献的建议设置参数。对于Ker1和Ker2,随机抽取每一类的5%的标签信息作为监督信息,其余标签信息未知。Ker1和Ker2中参数
${\rm{ACC}} = \frac{{\displaystyle\sum\limits_{i = 1}^N \delta ({{{t}}_i},{\rm{map}}({{{r}}_i}))}}{N}$ | (26) |
其中,
NUS-WIDE数据集[19]是由新加坡国立大学所创立的图像数据集,其包含有269 648张图片,每张图片均有对应的文本描述。实验是从NUS-WIDE数据集中选择图像和相应的文本去构建2个不同的数据集。其一为NUS-WIDE1数据集,该数据集包含6种混合图像(actor,car_racing,fruit,insect,leopard,tunnel),共有2 605张图片。其二为NUS-WIDE2数据集,该数据集包含6种不同的花(即chrysanthemums,lily,orchid,poppies,rose,tulip),共有2 522张图片。
对于上述数据集,每一个文本被分割成一个文本包,每一张图像也被分割成一个图像包。3种不同的分割方法[20]分割图像并获得图像包,即K均值分割(K-means Segmentation,K-meansSeg)、局部二值模式(Local Binary Patterns,LBP) 和尺度不变特征变换(Scale Invariant Feature Transform,SIFT)。
3.3 实验结果表1和表2分别列出了不同模型在NUS-WIDE1数据集和NUS-WIDE2数据集的聚类精度,其中Avg为平均精度。对于Ker1和Ker2,表中列出的是模型在
![]() |
表 1 在NUS-WIDE1数据集中各模型的聚类精度对比 Table 1 The clustering accuracy comparisons of models on NUS-WIDE1 dataset |
![]() |
表 2 在NUS-WIDE2数据集中各模型的聚类精度对比 Table 2 The clustering accuracy comparisons of models on NUS-WIDE2 dataset |
本节着重构造实验研究参数
![]() |
图 1 NUS-WIDE1数据集内的两类数据的Ker1参数敏感性实验 Figure 1 Parameter sensitivity of Ker1 on the two-class data of NUS-WIDE1 |
![]() |
图 2 NUS-WIDE1数据集内的两类数据的Ker2参数敏感性实验 Figure 2 Parameter sensitivity of Ker2 on the two-class data of NUS-WIDE1 |
提出的模型采用迭代更新规则发现目标方程的局部极小值。为了研究模型的收敛性,有必要可视化模型(Ker1和Ker2)在更新规则下的收敛曲线。图3和图4分别展示了提出的模型在NUS-WIDE1数据集内的两类数据上的收敛曲线。从图3和图4中,能够观察到Ker1和Ker2随着迭代次数的增加是逐渐收敛的。
![]() |
图 3 NUS-WIDE1数据集内的两类数据的Ker1的收敛曲线 Figure 3 Convergence curve of Ker1 on the two-class data of NUS-WIDE1 |
![]() |
图 4 NUS-WIDE1数据集内的两类数据的Ker2的收敛曲线 Figure 4 Convergence curve of Ker2 on the two-class data of NUS-WIDE1 |
本文提出了一种新的半监督两个视角的多示例聚类模型,其将文本视角和图像视角结合,有效地解决带有少量标签多示例图像聚类问题。通过嵌入概念分解和多示例核函数为一个整体,该模型为每个视角学习了一个关联矩阵,同时也获得了被两个视角所共享的聚类指示矩阵。而后,通过在关联矩阵和聚类指示矩阵上引入
[1] |
TIAN M W, YAN S R, TIAN X X, et al. Research on image recognition method of bank financing bill based on binary tree decision[J].
Journal of Visual Communication and Image Representation, 2019, 60: 123-128.
DOI: 10.1016/j.jvcir.2018.12.016. |
[2] |
WANG P, ZHANG P F, LI Z W. A three-way decision method based on gaussian kernel in a hybrid information system with images: an application in medical diagnosis[J].
Applied Soft Computing, 2019, 77: 734-749.
DOI: 10.1016/j.asoc.2019.01.031. |
[3] |
REN Y Z, WANG N, LI M X, et al. Deep density-based image clustering[J].
Knowledge-Based Systems, 2020, 197(7): 105841.
|
[4] |
YANG Z Y, ZHANG Y, XIANG Y, et al. Non-negative matrix factorization with dual constraints for image clustering[J].
IEEE Transactions on Systems Man & Cybernetics Systems, 2018, 50(7): 1-10.
|
[5] |
黎启祥, 肖燕珊, 郝志峰, 等. 基于抗噪声的多任务多示例学习算法研究[J].
广东工业大学学报, 2018, 35(3): 47-53.
LI Q X, XIAO Y S, HAO Z F, et al. An algorithm based on multi-instance anti-noise learning[J]. Journal of Guangdong University of Technology, 2018, 35(3): 47-53. DOI: 10.12052/gdutxb.180036. |
[6] |
ZHANG D, WANG F, SI L, et al. Maximum margin multiple instance clustering with applications to image and text clustering[J].
IEEE Transactions on Neural Networks, 2011, 22(5): 739-751.
DOI: 10.1109/TNN.2011.2109011. |
[7] |
XU W, GONG Y H. Document clustering by concept factorization[C]//Proceedings of the International ACM Sigir Conference on Research and Development in Information Retrieval. Sheffield: ACM, 2004: 202–209.
|
[8] |
YANG Y, WANG H. Multi-view clustering: a survey[J].
Big Data Mining & Analytics, 2018, 1(2): 3-27.
|
[9] |
ZHOU W, WANG H, YANG Y. Consensus graph learning for incomplete multi-view clustering[C]// Proceedings of the 23rd Pacific-asia Conference on Knowledge Discovery and Data Mining. Macau: ACM, 2019: 529-540.
|
[10] |
CAO X C, ZHANG C Q, FU H Z, et al. Diversity-induced multi-view subspace clustering[C]//Proceedings of the IEEE Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 586–594.
|
[11] |
WANG J, TIAN F, YU H C, et al. Diverse non-negative matrix factorization for multi-view data representation[J].
IEEE Transactions on Cybernetics, 2018, 48(9): 1-13.
DOI: 10.1109/TCYB.2018.2859281. |
[12] |
LIU J, JIANG Y, LI Z C, et al. Partially shared latent factor learning with multiview data[J].
IEEE Transactions on Neural Networks, 2015, 26(6): 1233-1246.
DOI: 10.1109/TNNLS.2014.2335234. |
[13] |
CARBONNEAU M A, CHEPLYGINA V, GRANGER E, et al. Multiple instance learning: a survey of problem characteristics and applications[J].
Pattern Recognition, 2017, 77: 329-353.
|
[14] |
MELKI G, CANO A, VENTURA S. Mirsvm: multi-instance support vector machine with bag representatives[J].
Pattern Recognition, 2018, 79: 228-241.
DOI: 10.1016/j.patcog.2018.02.007. |
[15] |
ANDERWS S, TSOCHANTARIDIS I, HOFMANN T. Support vector machines for multiple-instance learning[C]//Proceedings of the Neural Information Processing Systems. Vancouver: Nips, 2003: 577-584.
|
[16] |
WANG H Y, YANG Q, ZHA H B. Adaptive p-posterior mixture-model kernels for multiple instance learning[C]//Proceedings of the International Conference on Machine Learning. Helsinki: ACM, 2008: 1136-1143.
|
[17] |
GARTNER T, FLACH P A, KOWALCZYK A, et al. Multi-instance kernels[C]//Proceedings of the International Conference on Machine Learning. Sydney: ACM, 2002: 179-186.
|
[18] |
ZHANG M L, ZHOU Z H. Multi-instance clustering with applications to multi-instance prediction[J].
Applied Intelligence, 2009, 31(1): 47-68.
DOI: 10.1007/s10489-007-0111-x. |
[19] |
Chua T S, Tang J H, Hong R C, et al. Nus-wide: a real-world web image database from national university of singapore[C]//Proceedings of the ACM International Conference on Image and Video Retrieval. Santorini: ACM, 2009: 368-375.
|
[20] |
WEI X S, ZHOU Z H. An empirical study on image bag generators for multi-instance learning[J].
Machine Learning, 2016, 105(2): 155-198.
DOI: 10.1007/s10994-016-5560-1. |