基于趋势一致性学习的对比聚类算法

高小方 贾宗翰 梁吉业

高小方, 贾宗翰, 梁吉业. 基于趋势一致性学习的对比聚类算法 [J]. 智能系统学报, 2026, 21(2): 389-398. doi: 10.11992/tis.202506027
引用本文: 高小方, 贾宗翰, 梁吉业. 基于趋势一致性学习的对比聚类算法 [J]. 智能系统学报, 2026, 21(2): 389-398. doi: 10.11992/tis.202506027
GAO Xiaofang, JIA Zonghan, LIANG Jiye. Contrastive clustering algorithm based on trend consistency learning [J]. CAAI Transactions on Intelligent Systems, 2026, 21(2): 389-398. doi: 10.11992/tis.202506027
Citation: GAO Xiaofang, JIA Zonghan, LIANG Jiye. Contrastive clustering algorithm based on trend consistency learning [J]. CAAI Transactions on Intelligent Systems, 2026, 21(2): 389-398. doi: 10.11992/tis.202506027

基于趋势一致性学习的对比聚类算法

doi: 10.11992/tis.202506027
基金项目: 山西省基础研究计划项目(202203021221001).
详细信息
    作者简介:

    高小方,副教授,博士,中国计算机学会会员,主要研究方向为数据挖掘与机器学习。主持和完成国家自然科学基金项目1项、国家社会科学基金项目1项、山西省自然科学基金项目2项、山西省留学基金项目1项,参与国家自然科学基金项目和省部级科研项目7项,发表学术论文10余篇。E-mail:gxfhtp@sxu.edu.cn;

    贾宗翰,硕士研究生,主要研究方向为深度聚类。E-mail:582069778@qq.com;

    梁吉业,教授,博士生导师,博士,电子电气工程师协会会士,中国计算机学会会士,中国人工智能学会会士, 主要研究方向为数据挖掘与机器学习、大数据分析技术、人工智能。先后主持国家级重大项目1项、国家级项目10余项。发表学术论文400余篇。 E-mail:ljy@sxu.edu.cn.

    通讯作者:

    高小方. E-mail:gxfhtp@sxu.edu.cn.

  • 中图分类号: TP18

Contrastive clustering algorithm based on trend consistency learning

  • 摘要:

    近年来,对比聚类已成为数据挖掘与机器学习领域的研究热点,旨在利用对比学习强大的特征表示能力来提升聚类性能,然而对比学习的使用往往会引入类别冲突的假负例问题,从而降低了对比聚类性能。为解决这一问题,本文提出一种基于趋势一致性约束策略的对比聚类算法(contrastive clustering algorithm based on trend consistency learning),通过在趋势一致性数组中标记具有一致性类别信息的高置信度样本对,并利用这种语义信息计算出趋势约束矩阵,辅助挑选正样本,同时结合实例级和聚类级一致性损失函数实现聚类级与实例级样本信息的动态交互,增强样本的一致性及类间区分度。相较于其他对比聚类算法,该方法能够利用多轮训练过程中的伪标签变化趋势,得到具有高置信度的类别趋势一致性的样本对,从而提高模型的聚类性能。实验证明了该算法的有效性。

     

    Abstract:

    In recent years, contrastive clustering has become a research hotspot in the fields of data mining and machine learning, aiming to enhance clustering performance by leveraging the powerful feature representation capabilities of contrastive learning. However, the use of contrastive learning often introduces the problem of false negative examples due to category conflicts, thereby reducing the performance of contrastive clustering. To address this issue, this paper proposes a contrastive clustering algorithm based on a trend consistency constraint strategy (CCTC). By marking high-confidence sample pairs with consistent category information in the trend consistency array and using this semantic information to calculate the trend constraint matrix to assist in selecting positive samples, the algorithm achieves dynamic interaction between cluster-level and instance-level sample information through the combination of instance-level and cluster-level consistency loss functions, thereby enhancing sample consistency and inter-class distinguishability. Compared with other contrastive clustering algorithms, this method can utilize the pseudo-label change trends in the multi-round training process to obtain sample pairs with high-confidence category trend consistency, thus improving the clustering performance of the model. Experiments have demonstrated the effectiveness of the algorithm.

     

  • 在计算机视觉中,图像识别对自动驾驶、视频监控等应用至关重要[1-2]。尽管深度学习能够提升图像识别的准确性,但其算法依赖大量标注数据,限制了其应用范围。通过无标注数据提取特征,减少人工标注需求的自监督学习[3]应运而生。自监督学习是一种机器学习任务,它从无标签数据中生成监督信号来训练模型,与依赖标记数据集的监督学习不同。自监督学习不需要大量手动收集的标记数据,这对于深度学习模型尤为重要。深度聚类作为其重要应用,无需预先定义标签即可将数据分组成簇,揭示数据内在结构,为数据组织和分析提供高效工具[4]

    在深度聚类中,特征表示是至关重要的环节。随着自监督学习的发展,特征表示能力也越来越强大,其核心是通过数据自身的结构信息引导学习过程,对比学习作为一种极具代表性的学习方法,利用正负样本对的比较来学习区分不同数据的特征。在图像识别任务中,对比学习通常将同一图像的不同增强视图视为正样本,不同图像视为负样本,这种方法在图像分类和目标检测等任务中展现出巨大潜力[5-6]。对比学习在深度聚类中的应用,即对比聚类方法,通过优化特征表示和聚类分配,已成为深度聚类领域的重要研究方向之一[7-8]

    对比聚类在现实数据中面临诸多挑战,其中假负样本问题尤为突出,易误导模型,导致聚类结果不准确。为应对这一问题,已有研究提出了一些方法。例如,Chien等[9]提出了一种基于分布外检测的假负样本掩蔽方法,通过识别并掩盖假负样本,有效减轻了其对模型训练的负面影响。Kim等[10]提出了一种视图一致性约束方法,通过在不同视图间保持一致性,进一步优化了对比学习过程。然而,这些方法大多集中在单一对比学习阶段,忽视了聚类过程中有用的语义信息。

    本文提出了一种基于趋势一致性学习的对比聚类算法(contrastive clustering algorithm based on trend consistency learning, CCTC)。利用对比聚类过程中多轮训练的伪标签变化趋势,识别出具有高置信度的类别趋势一致性的样本对,从而有效减少假负例的影响;通过构建趋势一致性数组,计算出一个反映出样本的趋势一致性和特征空间相似度的趋势约束矩阵,并与实例级和聚类级信息进行交互。构造出协同优化的目标函数,包括实例级损失函数、聚类级损失函数、实例级与聚类级一致性损失函数,动态影响对比聚类的性能结果。算法CCTC在多个对比聚类基准数据集上进行实验,实验结果表明该算法能够有效解决假负问题,提升对比聚类算法的模型性能。

    对比学习通过将自身视为正样本、其他数据样本视为负样本来优化特征表示,但负样本集中常包含与锚样本语义相同的假负样本,导致语义相似的图像对被错误分离,阻碍模型学习到最优的特征表示。为解决假负样本问题,研究者们提出了多种方法。Dwibedi等[11]提出的NNCLR(nearest-neighbor contrastive learning)通过采样最近邻样本作为正样本,减少了假负样本的影响。Zhuang等[12]提出的LA(local aggregation)通过最大化局部聚合度量,使相似样本在嵌入空间中聚集,从而减少了假负样本对模型训练的干扰。Chen等[13]提出的增量假负样本检测IFND(incremental false negative detection)利用k均值伪标签增量检测和消除假负样本,动态调整负样本集,提高了模型对假负样本的鲁棒性。Xu等[14]提出的, FNC (false negative cancellation)通过移除与锚样本语义相似的负样本,避免模型对这些样本进行错误的学习。Gidaris等[15]提出的AFNC(adaptive false negative cancellation)采用自适应策略识别并处理假负样本,根据其语义相似性动态调整其在训练中的权重,从而优化模型的特征学习能力。

    在图像聚类领域,研究者们不断探索如何有效结合对比学习以提升模型性能。例如,Li等[16]提出的CC(contrastive clustering)通过在实例级别和聚类级别同时进行对比学习,优化特征表示和聚类分配。具体来说,该方法利用数据增强构建正负样本对,并在特征矩阵的行空间和列空间中分别进行对比学习,通过最大化正对之间的相似性并最小化负对之间的相似性,以端到端的方式联合学习表示和聚类分配。Li等[17]提出的TCL(twin contrastive learning for online clustering)使用CC的方法进行聚类,但它通过利用基于置信度的标准来选择伪标签,从而增强了实例级和聚类级的对比学习。Niu等[18]提出的SPICE(semantic pseudo-labeling for image clustering)框架利用对比学习在第一阶段训练特征模型,以捕捉实例间的相似性,然后在后续阶段使用语义伪标记来优化聚类头,从而识别聚类的语义差异。Dang等[19]提出的NNM(nearest neighbor matching)在局部和全局级别上应用对比学习,通过匹配样本与其最近邻,构建了一致性损失和类对比损失,进一步提升了聚类性能。这些工作展示了对比学习在图像聚类中的多样化应用,无论是在特征提取、聚类头训练,还是在整个聚类框架的设计中,对比学习都发挥了关键作用,通过增强样本间的差异性和相似性,显著升了聚类任务的性能。

    本文提出的对比聚类算法CCTC的模型框架如图1所示。首先基于经典的SimCLR(a simple framework for contrastive learning of visual representations)[20]算法实现了实例级对比学习中的数据对构建(浅蓝线部分)。然后利用多轮训练过程中的伪标签趋势,构造趋势一致性数据,计算趋势一致性约束矩阵(深灰色部分)。最后构造实例级损失和聚类级损失,并结合趋势约束矩阵构造实例级一致性损失和聚类级一致性损失的协同优化(浅灰色部分)。

    图  1  模型架构
    Fig.  1  Model architecture
    下载: 全尺寸图片

    CCTC算法采用了GCC(graph contrastive clustering)[21] 基础上的对比学习框架来训练特征模型训练模型。给定一个样本$ {\boldsymbol{x}}_{{i}} $,$ {\boldsymbol{x}}_{{i}} $构造其两种不同的数据增强$ {{\boldsymbol{x}}}_{{i}}^{\text{1}} $和$ {{\boldsymbol{x}}}_{{i}}^{\text{2}} $(正样本对),通过残差网络映射得到H和${\boldsymbol{H}}^{\prime} $,通过投影头$ \textit{z}\left(\cdot \right) $输出图像的分配概率矩阵的行(即每张图片的分配概率向量)即$ {\boldsymbol{z}}_{1}=\textit{z}\text{(}\boldsymbol{H}),{\boldsymbol{z}}_{2}=\textit{z}({\boldsymbol{H}}^{\prime}) $,看作是图像的特征表示,经过K-Nearest Neighbors算法的指导得到一个拉普拉斯矩阵Y,通过Y中包含的近邻信息与权重信息作为一种正负样本对信息来作用于对比损失函数,不断调整网络参数学习使正样本对在嵌入空间中更接近,负样本对更远离。

    通过残差网络映射,H通过聚类头$ y\left(\cdot \right) $得到与类别信息维度保持一致的特征向量,即$ {\boldsymbol{y}}_{1}=y\text{(}\boldsymbol{H}) $和$ {\boldsymbol{y}}_{2}=y({\boldsymbol{H}}^{\prime}) $特征向量可以作为伪标签使用[11]。这些特征表示组合起来形成特征矩阵。每一列可以被视为聚类在样本上的分布,即聚类表示。使用相似度度量来度量聚类表示之间的相似性。对于每个聚类表示,计算其与正样本(同一聚类内的其他样本)的相似度,并与负样本(不同聚类的样本)的相似度进行对比。通过聚类级损失函数来优化这一过程,使得正样本对的相似度最大化,负样本对的相似度最小化。通过这种聚类级对比学习,使得同一聚类内的样本在特征空间中更接近,而不同聚类的样本则更有效地增强聚类内的一致性和聚类间的区分度。

    在半监督学习和自监督学习中的研究中,通常只使用最新轮次生成的伪标签信息,忽略了中间过程生成的伪标签,而这些伪标签信息的趋势变化包含非常有价值的语义信息,充分利用这些被忽略的语义信息可以增强模型的泛化能力,提高聚类性能。CCTC算法利用这些趋势一致性语义信息,通过分析样本在多个训练周期中的伪标签变化趋势,将多个时间点上具有标签一致性的样本作为候选正样本,并通过优化伪标签的生成和使用策略,准确获取正负样本对,从而获得高置信度的类别监督信息指导模型。

    2.3.1   趋势一致性更新

    1)趋势一致性数组更新。在每个训练周期t$ (t=1,2,\cdots ,w) $开始时,样本$ {\boldsymbol{x}_{{i}}}(i=1,2,\cdots ,n) $的伪标签$ {\boldsymbol{y}}_{i}^{(t)} $通过聚类级对比学习获得。为了充分利用历史伪标签信息,趋势一致性数组C存储样本在多个训练周期的伪标签信息。具体来说,趋势一致性数组C的大小为$ N\times w $,其中N是样本数量,W是存储的训练周期数量。在每个训练周期t,趋势一致性数组C会更新,具体更新规则为

    $$ \boldsymbol{C}_{i,j}^{(t)}=\begin{cases} \boldsymbol{y}_{i}^{(t)}, & j=w\\ \boldsymbol{C}_{i,j+1}^{(t-1)}, & 1\leq j \lt w \end{cases} $$

    式中$ \boldsymbol{C}_{i,j}^{(t)} $表示样本xi在第t个训练周期对应的趋势一致性数组中的第j列元素。利用这种队列机制确保了在模型训练过程中,伪标签的更新能够反映样本的真实类别趋势。

    2) 更新趋势一致性矩阵M。趋势一致性数组C中包含样本在连续训练周期内的伪标签变化信息,趋势一致性矩阵M用以标记在多个周期中保持一致的样本对,以便此类语义信息被有效地整合到趋势约束矩阵中,增强了模型对目标数据的泛化能力,解决假负例问题。

    $$ {{\boldsymbol{M}}}_{ij}=\frac{1}{w}\sum\limits_{t=1}^{w}\mathbb{I}({\boldsymbol{C}}_{it}={\boldsymbol{C}}_{jt}) $$

    式中$ \mathbb{I} $是指示函数,当Cit=Cjt时取值为 1,否则为 0,在 w个训练周期中,若样本ij 的伪标签保持一致,则认为它们是同类样本。通过趋势一致性的策略,在模型训练的每一轮次中都得到一个具有样本类别信息的的M矩阵用于对后续正样本的筛选。

    2.3.2   构建聚类相似度矩阵

    对于每个样本xi经过聚类级对比学习处理后得到伪标签yi,对应于第i个样本的软标签,即该样本属于各个类别的概率分布。通过计算$ {y}_{i} $的内积来得到样本间的相似度,从而构建聚类相似度矩阵S

    $$ {\boldsymbol{S}}_{ij}=\boldsymbol{y}_{i}^{{\mathrm{T}}}\cdot {\boldsymbol{y}}_{j} $$

    S的每个元素$ {{{\boldsymbol{S}}}}_{{ij}} $反映了样本$ {{{\boldsymbol{x}}}}_{{i}} $和$ {{{\boldsymbol{x}}}}_{{j}} $所属聚类的相似程度。相似度矩阵S包含了数据内在结构信息,为趋势一致性模块提供相似度信息,用于后续对样本对之间的约束。

    2.3.3   构建趋势约束矩阵

    趋势一致性矩阵M的每个元素Mij表示样本xi和样本xj在多个训练周期中的伪标签一致性。通过结合相似度矩阵S和趋势一致性数组C,得到趋势约束矩阵MS

    $$ \boldsymbol{M}_{\boldsymbol{S}}\mathbf=\boldsymbol{M}\odot \boldsymbol{S} $$

    式中$ \odot $表示元素级别的乘法(Hadamard乘积)。元素表示:

    $$ \boldsymbol{M}_{\boldsymbol{S}}^{ij}=\begin{cases} {\mu }_{ij}, & i和j具有趋势一致性\\ 0, & 其他 \end{cases} $$

    式中$ i\neq j $,$ {\mu }_{ij} $值为样本之间的聚类相似度。 $ {\boldsymbol{M_S}} $中的每个元素都是MS的乘积,反映了两个样本在趋势一致性和特征空间相似度上的综合考量。MS集成了具有较高准确度的样本对类别信息,有助于处理早期训练周期中被错分的假负例。这些假负例在后续周期中如果与某些样本趋势一致性较高(即$ {\boldsymbol{M}}_{\boldsymbol{S}}^{ij} $值较高),可以利用MS矩阵调整这些样本对的分类结果,在一定程度上缓解假负例问题。

    图2所示,以10个样本在最近3个训练周期的伪标签为例,展示CCTC算法的效果。样本根据聚类(红、绿、蓝)着色,趋势一致性样本在特征空间中被拉近,双箭头指示拉近方向。

    图  2  趋势一致性实例描述
    Fig.  2  Trend consistency example description
    下载: 全尺寸图片

    算法CCTC的最终目标函数由4部分组成,$ {\mathcal{L}}_{{\mathrm{InfoNCE}}} $描述了实例级损失。$ {\mathcal{L}}_{{\mathrm{clu}}} $描述了聚类级损失。$ {\mathcal{L}}_{\textit{z}} $和$ {\mathcal{L}}_{\textit{z}} $分别描述了实例一致性损失和聚类一致性损失。整体目标函数为

    $$ \mathcal{L}={\mathcal{L}}_{\text{InfoNCE}}+{\mathcal{L}}_{\text{clu}}+\alpha {\mathcal{L}}_{\textit{z}}+\beta {\mathcal{L}}_{{y}} $$

    在对比聚类中,实例级对比损失和聚类级对比损失通常具有相似的重要性。实例级损失负责优化样本之间的局部相似性,而聚类级损失则关注全局的聚类结构。由于这两个任务在逻辑上是互补的,且都对最终的聚类性能有直接影响,因此赋予它们相同的权重是合理的。这种权重分配方法在对比聚类领域已被证明是有效的,例如在CC[10]的研究中,简单的加权和已经显示出良好的性能。因此,在CCTC算法中实例级损失与聚类级损失不设置系数,只对实例一致性损失$ {\mathcal{L}}_{\textit{z}} $和聚类一致性损失$ {\mathcal{L}}_{y} $的设置系数$ \textit{α} $和$ \textit{β} $。

    2.4.1   实例级损失

    实例级损失通过对比学习优化样本对的相似性:让同一图像的不同增强视图的特征接近,不同图像的增强视图的特征远离。

    $$ {\mathcal{L}}_{{\mathrm{InfoNCE}}}=-\frac{1}{N}\displaystyle\sum\limits_{i=1}^{N}\log \left(\frac{\displaystyle\sum\limits_{{\boldsymbol{Y}}_{ij}^{} \lt 0}-{\boldsymbol{Y}}_{ij}^{}{{\mathrm{e}}}^{{{\boldsymbol{z}}_{{{i}^{\prime}}}}\cdot {{\boldsymbol{z}}_{{{j}^{\prime}}}}/\tau }}{\displaystyle\sum\limits_{{L}_{ij}=0}{{\mathrm{e}}}^{{{\boldsymbol{z}}_{{{i}^{\prime}}}}\cdot {{\boldsymbol{z}}_{{{j}^{\prime}}}}/\tau }}\right) $$

    式中:N是样本的总数,为非锚点样本的增强样本;Yij是图拉普拉斯矩阵Y中的元素,表示样本 i 和样本 j 之间的连接关系;$ {\boldsymbol{z}}_{{k}} $是其样本的嵌入特征;$ \tau $是温度系数。

    2.4.2   聚类级损失

    聚类级对比损失用于聚类任务的对比学习,通过聚类级别的信息优化数据表示,公式为

    $$ {\mathcal{L}}_{{\mathrm{clu}}}=-\frac{1}{K}\sum\limits_{i=1}^{K}\log \frac{{{\mathrm{e}}}^{s\mathrm{im}({{\boldsymbol{y}}_{1i}},{{\boldsymbol{y}}_{2i}})/{{\tau }_{y}}}}{\displaystyle\sum\limits_{j=1}^{K}{{\mathrm{e}}}^{s\mathrm{im}({{\boldsymbol{y}}_{1i}},{{\boldsymbol{y}}_{2j}})/{{\tau }_{y}}}}+\lambda {\mathcal{L}}_{{\mathrm{au}}} $$ (1)

    式中:K是聚类的数量;$ {\boldsymbol{y}}_{1i} $和$ {\boldsymbol{y}}_{2i} $分别是样本X在第一次和第二次数据增强后聚类i的表示;$ {\tau }_{y} $是聚类级别的温度参数;$ \text{sim}(\cdot ) $使用余弦相似度计算;$ {\mathcal{L}}_{\text{au}} $是一个辅助损失;$ \lambda $用于控制$ {\mathcal{L}}_{\text{au}} $在总损失中的权重。

    余弦相似度计算公式为

    $$ \cos ({\boldsymbol{y}}_{1i},{\boldsymbol{y}}_{2i})=\frac{{\boldsymbol{y}}_{1i}{}^{{\mathrm{T}}}{\boldsymbol{y}}_{2i}}{\| {\boldsymbol{y}}_{1i}{\| }_{2}\| {\boldsymbol{y}}_{2i}{\| }_{2}} $$

    式中$ \| \cdot {\| }_{2} $ 代表$ {L}_{2} $归一化。

    $ {\mathcal{L}}_{\text{au}} $ 计算公式为

    $$ {\mathcal{L}}_{\text{au}}=\log (K)+\sum\limits_{i=1}^{K}{p}_{i}\log ({p}_{i}) $$

    式中$ {p}_{i} $是模型预测样本属于第i个聚类的概率。这个辅助损失项实际上是熵的计算,它鼓励模型对每个聚类的预测概率分布更加均匀,从而避免模型对某个聚类的过度自信。

    2.4.3   聚类级一致性损失

    在CCTC算法中,趋势一致性学习模块分析样本在连续训练周期内的标签趋势,识别出高置信度一致样本,构建趋势约束矩阵MS。聚类级一致性损失据此计算,通过这种方式,在多个训练周期中表现出高度一致性的样本被选出,可以用于聚类级别的优化。根据MS计算聚类级一致性损失$ {\mathcal{L}}_{y} $,定义为

    $$ {\mathcal{L}}_{y}=\frac{1}{{N}^{2}}\sum\limits_{i=1}^{N}\sum\limits_{j=1}^{N}{\boldsymbol{M}}_{\boldsymbol{S}}^{ij}\cdot \mathbb{I}({\boldsymbol{M}}_{\boldsymbol{S}}^{ij}\geq \delta )\cdot {{\mathrm{e}}}^{-{\mathrm{sim}}({{{\boldsymbol{y}}}_{i}},{{{\boldsymbol{y}}}_{j}})} $$

    式中:N表示样本总数;yi表示样本 xi的伪标签;δ是预设的阈值,用于确定样本对的趋势一致性是否足够高,以被纳入聚类级一致性损失的计算中。引入实例级一致性损失$ {\mathcal{L}}_{{y}} $,$ \text{sim}(\cdot ) $使用余弦相似度计算(式(1))。模型在聚类级对比学习优化样本的聚类分配基础上,利用$ {\boldsymbol{M}}_{\boldsymbol{S}} $识别出高置信度的一致样本对,为模型提供更可靠的监督信号,从而进一步增强同类样本的相似性和类间区分度。

    2.4.4   实例级一致性损失

    实例级一致性损失在实例级学习基础上引入类信息,通过拉近同类样本距离优化特征空间。它利用MS,与实例级样本相似度矩阵交互学习。

    实例级一致性损失$ {\mathcal{L}}_{{z}} $计算公式为

    $$ {\mathcal{L}}_{z}=\frac{1}{{N}^{2}}\sum\limits_{i=1}^{N}\sum\limits_{j=1}^{N}{\boldsymbol{M}}_{\boldsymbol{S}}^{ij}\cdot \mathbb{I}({\boldsymbol{M}}_{\boldsymbol{S}}^{ij}\geq \delta )\cdot {{\mathrm{e}}}^{-{\mathrm{sim}}({{\boldsymbol{z}}_{i}},{{\boldsymbol{z}}_{j}})} $$

    式中:zizj是样本xixj在特征空间中的表示;N表示样本总数;yi表示样本xi的伪标签。引入实例级一致性损失$ {\mathcal{L}}_{\textit{z}} $,模型在实例级别对比学习优化样本特征表示的基础上,借助趋势约束矩阵MS进一步增强了同类样本的相似性。

    本文提出的算法如算法1所示。

    算法1 趋势一致性算法

    输入 数据样本集T;预训练轮数E1;训练轮数E2;温度超参数τzτy;阈值δy(·), z(·);每个样本的最近邻数量K

    //实例级对比学习与聚类级对比学习

    1) for epoch = 1 to E1 do

    2)计算样本集T的增强视图的潜在表示;

    3) KNN指导得到拉普拉斯矩阵Y

    4)计算$ {\mathcal{L}}_{{\mathrm{InfoNCE}}} $和$ {\mathcal{L}}_{{\mathrm{clu}}} $;

    5)更新y(·), z(·)的参数;

    6) end for

    //训练趋势一致性模块

    7) for epoch = E1 + 1 to E2 do

    8)趋势一致性学习得到趋势约束矩阵MS

    9) MS在根据阈值δ来调整矩阵;

    10)计算损失$ {\mathcal{L}}_{\textit{z}} $和$ {\mathcal{L}}_{{y}} $;

    11)更新y(·), z(·)的参数;

    12) end for

    用于评估的基准数据集如表1所示。

    表  1  用于评估的基准数据集
    Table  1  Benchmark datasets for evaluation
    数据集 图片尺寸 样本数 类别数
    CIFAR-10 32×32 60000 10
    CIFAR-100 32×32 60000 20
    STL-10 96×96 113000 10
    ImageNet-10 96×96 13000 10
    ImageNet-Dogs 96×96 19500 15

    CCTC算法框架中使用ResNet-18 [15]作为主要的网络架构,并在一个A100 GPU上训练网络。首先用50个epoch通过SimCLR训练模型。SGD优化器参数学习率设置为 0.4,权重衰减为10−4和动量系数为0.9。学习速率通过余弦调度器衰减,衰减率为0.1。batch(批量大小)设置为256,并采用与SimCLR相同的数据增强,即颜色抖动、随机灰度、随机调整大小的裁剪。实例级对比损失和聚类级对比损失中的温度分别设置为τ = 0.1和τ = 1.0。对所有数据集均设置:聚类正则化λ = 0.5,一致性损失函数权重α=0.7与β=0.3,GCC[21]中KNN的参数亦设置K = 5,并利用高效的相似性搜索库'Faiss' 2,其构建成本可以忽略不计。

    采用准确度(accuracy, ACC)、归一化互信息(normalized mutual information, NMI)和调整后兰德指数(adjusted rand index, ARI)评估聚类性能。ACC反映聚类结果与真实标签的一致性,NMI和ARI衡量二者相似性。综合使用这3个指标,可全面评估聚类效果,验证方法对假负例问题的解决能力。

    将本文所提出的算法CCTC与多种传统聚类和度聚类算法进行比较,包括K-means、谱聚类SC(normalized cuts and image segmentation)[22],凝聚聚类AC(agglomerative clustering using the concept of mutual nearest neighbourhood)[23],基于非负矩阵分解(locality preserving nonnegative matrix factorization, NMF)的聚类[24],自动编码器AE(greedy layer-wise training of deep networks)[25],去噪自动编码器DAE(learning useful representations in a deep network with a local denoising criterion)[26],GAN(unsupervised representation learning with deep convolutional generative adversarial networks)[27],DECNN(deconvolutional networks)[28],变分自动编码VAE(auto-encoding variational Bayes)[29],深度嵌入聚类DEC(unsupervised deep embedding for clustering analysis)[30],联合无监督学习(joint unsupervised learning of deep representations and image clusters, JULE)[31],深度自适应图像聚类(deep adaptive image clustering, DAC)[32],深度综合相关挖掘(deep comprehensive correlation mining for image clustering, DCCM)[33],分区置信度最大化( deep semantic clustering by partition confidence maximisation, PICA)[34]和深度鲁棒聚类(deep robust clustering by contrastive learning, DRC)[35],对比聚类(contrastive clustering, CC)[16]和图对比聚类(graph contrastive clustering, GCC)[21]表2给出了它们在5个基准数据集上的聚类结果。CCTC算法在大多数数据集上性能显著优于其他算法,仅在STL-10数据集上不够出色。这是因为STL-10与其他数据集相比,类别信息较少,趋势一致性信息不够充分。

    表  2  聚类性能比较
    Table  2  Clustering comparison
    算法 CIFAR-10 CIFAR-100 STL-10 ImageNet-10 Imagenet-dogs
    NMI ACC ARI NMI ACC ARI NMI ACC ARI NMI ACC ARI NMI ACC ARI
    Kmeans 0.087 0.229 0.049 0.084 0.13 0.028 0.125 0.192 0.061 0.119 0.241 0.057 0.055 0.105 0.02
    AC 0.105 0.228 0.065 0.098 0.138 0.034 0.239 0.332 0.14 0.138 0.242 0.067 0.037 0.139 0.021
    SC 0.103 0.247 0.085 0.09 0.136 0.022 0.098 0.159 0.048 0.151 0.274 0.076 0.038 0.111 0.013
    NMF 0.081 0.19 0.034 0.079 0.118 0.026 0.096 0.18 0.046 0.132 0.23 0.065 0.044 0.118 0.016
    VAE 0.245 0.291 0.167 0.108 0.152 0.040 0.200 0.282 0.146 0.193 0.334 0.168 0.107 0.179 0.079
    JULE 0.192 0.272 0.138 0.103 0.137 0.033 0.182 0.277 0.164 0.175 0.3 0.138 0.054 0.138 0.028
    DEC 0.257 0.301 0.161 0.136 0.185 0.050 0.282 0.381 0.203 0.122 0.195 0.079
    DAC 0.396 0.522 0.306 0.185 0.238 0.088 0.366 0.47 0.257 0.394 0.527 0.302 0.219 0.275 0.111
    PICA 0.591 0.696 0.512 0.310 0.337 0.171 0.611 0.713 0.531 0.802 0.87 0.761 0.352 0.352 0.201
    DCCM 0.496 0.623 0.408 0.285 0.327 0.173 0.376 0.482 0.262 0.608 0.71 0.555 0.321 0.383 0.182
    DRC 0.621 0.727 0.547 0.356 0.367 0.208 0.644 0.747 0.569 0.830 0.884 0.798 0.384 0.389 0.230
    NNCC 0.737 0.819 0.421 0.438 0.616 0.725 0.683 0.751 0.372 0.401
    CC 0.705 0.790 0.637 0.431 0.429 0.266 0.719 0.817 0.726 0.859 0.893 0.822 0.445 0.429 0.274
    GCC 0.764 0.856 0.728 0.472 0.472 0.305 0.684 0.788 0.631 0.842 0.901 0.822 0.490 0.526 0.362
    CCTC 0.791 0.873 0.760 0.496 0.483 0.333 0.684 0.778 0.632 0.852 0.901 0.827 0.597 0.646 0.489
    注:加粗表示结果最优。

    在聚类任务中,某些类别由于其特征的复杂性或与其他类别的相似性,往往难以被准确区分,这些类别被称为“困难类”。例如,动物类别(如“鸟”“猫”“狗”和“马”)由于视觉特征的相似性,容易被模型误分类。为了清晰地展示CCTC算法相比GCC算法在处理困难类时性能提升,本实验采用混淆矩阵进行直观的对比。混淆矩阵能够清晰地展示模型对每个类别的分类结果,特别是对于困难类的识别能力。

    图3(a)GCC算法在CIFAR-10数据集上的混淆矩阵,从图中可以看出,GCC算法在区分某些类别(如鹿与马)时存在困难,误分类率超过10%。这表明GCC算法在处理困难类时存在假负样本问题,导致模型难以学习到这些类别之间的细微差异。图3(b)CCTC算法在相同数据集上的混淆矩阵。与GCC算法相比,CCTC算法生成了更均衡的混淆矩阵,增强了类别间的区分度。特别是在“鸟”“猫”“狗”和“马”(图中红色框标注)等动物类别上,CCTC算法的识别能力显著提升,误分类率大幅降低。通过对比两个算法的混淆矩阵,可以明显看出CCTC算法通过引入趋势一致性策略,在处理困难类时以及模型对类边界的识别能力的优势。

    图  3  CIFAR-10数据集上GCC和CCTC模型的混淆矩阵
    Fig.  3  Confusion matrices of the GCC and CCTC models on the CIFAR-10 dataset
    下载: 全尺寸图片

    为了深入分析趋势一致性模块对模型性能的影响,本研究设计了一系列消融实验。这些实验旨在通过逐步移除或修改模型的关键组件,来评估其对整体性能的影响。表3列出了趋势一致性模块关键组件对算法的影响。算法CCTC通过MS,获取类别信息监督,实现了对聚类级与实例级的交互学习。在聚类级和实例级进行交互优化时,能够取得较好的性能尤其在类别信息丰富的数据集上效果显著,如IMAGENET-DOGS。表3所示的结果表明,趋势一致性策略能够挖掘协同效应,从而提升性能。

    表  3  趋势矩阵对模型聚类性能影响
    Table  3  Impact of the trend constraint matrix on model clustering performance
    数据集 趋势约束
    矩阵
    趋势一致性
    矩阵
    NMI ACC ARI
    CIFAR-10 0.764 0.856 0.728
    0.766 0.863 0.738
    0.791 0.873 0.760
    CIFAR-100 0.472 0.472 0.305
    0.481 0.476 0.312
    0.487 0.479 0.317
    ImageNet-Dogs 0.490 0.526 0.362
    0.585 0.624 0.467
    0.597 0.646 0.489
    注:加粗表示结果最优。

    综上所述,趋势一致性模块在对比聚类中发挥着 重要作用。通过合理地结合SM,算法CCTC能够有效地增强样本的特征表示和聚类结果的可分性,进而提升模型在复杂类别数据上的聚类性能。

    在实验中,对CCTC算法的超参数进行了敏感分析,特别是针对阈值$ {\delta }_{1} $和$ {\delta }_{2} $的设置。在 CIFAR-10 数据集上,当$ {\delta }_{1} $设置为 0.85、$ {\delta }_{2} $设置为 0.9 时,模型的 ACC、ARI、NMI指标达到最大值,接近最佳性能。

    进一步观察图4模型训练过程发现,CCTC算法在训练至400个epoch左右,性能提升逐渐减缓。这表明模型在训练初期能够快速学习到有效的特征表示,但随着训练的深入,继续优化的难度增加。通过增加$ {\delta }_{2} $并微调MS,可以进一步提升性能,这表明模型对超参数具有一定的敏感性。因此对$ {\delta }_{2} $阈值进行了敏感性分析。首先确定$ {\delta }_{1} $的最佳值,然后再微调$ {\delta }_{2} $。在训练过程中,CCTC分阶段设置阈值:前400个epoch使用$ {\delta }_{1} $,后600个epoch使用$ {\delta }_{2} $。这种分阶段的策略旨在减少矩阵S引入的错误率,提高正样本的准确度。

    图  4  模型训练过程
    Fig.  4  Model training process
    下载: 全尺寸图片

    初始选择阈值时,本实验将聚类级矩阵相似度排序,选择大致等于批次大小除以样本类别数量的样本,设定阈值选择范围为它们的相似度。由于不同数据集的样本类别数不同,选择的$ {\delta }_{2} $也不同。以批次大小除以样本类别数作为同类样本数的估计,从而确定$ {\delta }_{1} $和$ {\delta }_{2} $在 0.85 和 0.9 附近进行调整。其他数据集的阈值结果详见表4

    表  4  所有数据集选择表
    Table  4  Threshold selection for all datasets
    阈值 CIFAR-
    10
    CIFAR-
    100
    STL-
    10
    ImageNet-
    10
    ImageNet-
    dogs
    δ1 0.85 0.86 0.85 0.93 0.92
    δ2 0.90 0.92 0.90 0.97 0.96

    通过该敏感性分析,能够更精确地调整超参数,优化模型的整体性能。这种方法不仅适用于 CIFAR-10 数据集,而且适用于其他数据集。

    实例级一致性损失和聚类级一致性损失的权重设置能够确保模型在优化过程中同时关注局部和全局特征,影响模型的整体性能和泛化能力。为了优化损失函数的整体性能,本实验在CIFAR-10数据集上通过权重消融分析$ {\mathcal{L}}_{\textit{z}} $和$ {\mathcal{L}}_{{y}} $的权重分配,实验结果见图5

    图  5  CIFAR-10数据集损失函数权重分析
    Fig.  5  Weight analysis chart of loss function for CIFAR-10 dataset
    下载: 全尺寸图片

    实验结果表明,αβ的比值对对比聚类模型性能的影响较稳定,一般为7∶3模型的各项性能指标达到最优。所以在目标损失函数中实例级一致性损失和聚类级一致性损失系数设置为0.7、0.3,这个结论可以推广至其他数据集。

    本研究提出了一种基于趋势一致性学习策略的对比聚类框架,旨在通过利用历史伪标签信息来准确获取正负样本对,从而获得高置信度的类别监督信息。该框架进一步构造了实例级一致性和聚类级一致性损失函数,以构建更准确的正负样本对,进而优化模型。具体来说,本研究更加关注于揭示各类别图像的本质特征,而非仅仅区分不同类别图像的表面特征。这表明研究的重点在于深入理解每个类别的独特属性,实验显示,本文提出的算法CCTC在多个数据集上都取得了较好的表现,验证了算法的有效性。

    CCTC算法在未来的工作中仍有改进的空间,可以进一步探索算法训练过程中的标签一致性和算法结果的趋势之间的复杂关系,并为对比学习和聚类任务的进一步优化提供新的研究视角和研究对象。

  • 图  1   模型架构

    Fig.  1   Model architecture

    下载: 全尺寸图片

    图  2   趋势一致性实例描述

    Fig.  2   Trend consistency example description

    下载: 全尺寸图片

    图  3   CIFAR-10数据集上GCC和CCTC模型的混淆矩阵

    Fig.  3   Confusion matrices of the GCC and CCTC models on the CIFAR-10 dataset

    下载: 全尺寸图片

    图  4   模型训练过程

    Fig.  4   Model training process

    下载: 全尺寸图片

    图  5   CIFAR-10数据集损失函数权重分析

    Fig.  5   Weight analysis chart of loss function for CIFAR-10 dataset

    下载: 全尺寸图片

    表  1   用于评估的基准数据集

    Table  1   Benchmark datasets for evaluation

    数据集 图片尺寸 样本数 类别数
    CIFAR-10 32×32 60000 10
    CIFAR-100 32×32 60000 20
    STL-10 96×96 113000 10
    ImageNet-10 96×96 13000 10
    ImageNet-Dogs 96×96 19500 15

    表  2   聚类性能比较

    Table  2   Clustering comparison

    算法 CIFAR-10 CIFAR-100 STL-10 ImageNet-10 Imagenet-dogs
    NMI ACC ARI NMI ACC ARI NMI ACC ARI NMI ACC ARI NMI ACC ARI
    Kmeans 0.087 0.229 0.049 0.084 0.13 0.028 0.125 0.192 0.061 0.119 0.241 0.057 0.055 0.105 0.02
    AC 0.105 0.228 0.065 0.098 0.138 0.034 0.239 0.332 0.14 0.138 0.242 0.067 0.037 0.139 0.021
    SC 0.103 0.247 0.085 0.09 0.136 0.022 0.098 0.159 0.048 0.151 0.274 0.076 0.038 0.111 0.013
    NMF 0.081 0.19 0.034 0.079 0.118 0.026 0.096 0.18 0.046 0.132 0.23 0.065 0.044 0.118 0.016
    VAE 0.245 0.291 0.167 0.108 0.152 0.040 0.200 0.282 0.146 0.193 0.334 0.168 0.107 0.179 0.079
    JULE 0.192 0.272 0.138 0.103 0.137 0.033 0.182 0.277 0.164 0.175 0.3 0.138 0.054 0.138 0.028
    DEC 0.257 0.301 0.161 0.136 0.185 0.050 0.282 0.381 0.203 0.122 0.195 0.079
    DAC 0.396 0.522 0.306 0.185 0.238 0.088 0.366 0.47 0.257 0.394 0.527 0.302 0.219 0.275 0.111
    PICA 0.591 0.696 0.512 0.310 0.337 0.171 0.611 0.713 0.531 0.802 0.87 0.761 0.352 0.352 0.201
    DCCM 0.496 0.623 0.408 0.285 0.327 0.173 0.376 0.482 0.262 0.608 0.71 0.555 0.321 0.383 0.182
    DRC 0.621 0.727 0.547 0.356 0.367 0.208 0.644 0.747 0.569 0.830 0.884 0.798 0.384 0.389 0.230
    NNCC 0.737 0.819 0.421 0.438 0.616 0.725 0.683 0.751 0.372 0.401
    CC 0.705 0.790 0.637 0.431 0.429 0.266 0.719 0.817 0.726 0.859 0.893 0.822 0.445 0.429 0.274
    GCC 0.764 0.856 0.728 0.472 0.472 0.305 0.684 0.788 0.631 0.842 0.901 0.822 0.490 0.526 0.362
    CCTC 0.791 0.873 0.760 0.496 0.483 0.333 0.684 0.778 0.632 0.852 0.901 0.827 0.597 0.646 0.489
    注:加粗表示结果最优。

    表  3   趋势矩阵对模型聚类性能影响

    Table  3   Impact of the trend constraint matrix on model clustering performance

    数据集 趋势约束
    矩阵
    趋势一致性
    矩阵
    NMI ACC ARI
    CIFAR-10 0.764 0.856 0.728
    0.766 0.863 0.738
    0.791 0.873 0.760
    CIFAR-100 0.472 0.472 0.305
    0.481 0.476 0.312
    0.487 0.479 0.317
    ImageNet-Dogs 0.490 0.526 0.362
    0.585 0.624 0.467
    0.597 0.646 0.489
    注:加粗表示结果最优。

    表  4   所有数据集选择表

    Table  4   Threshold selection for all datasets

    阈值 CIFAR-
    10
    CIFAR-
    100
    STL-
    10
    ImageNet-
    10
    ImageNet-
    dogs
    δ1 0.85 0.86 0.85 0.93 0.92
    δ2 0.90 0.92 0.90 0.97 0.96
  • [1] 蒋树强, 闵巍庆, 王树徽. 面向智能交互的图像识别技术综述与展望[J]. 计算机研究与发展, 2016, 53(1): 113−122.

    JIANG Shuqiang, MIN Weiqing, WANG Shuhui. Survey and prospect of intelligent interaction-oriented image recognition techniques[J]. Journal of computer research and development, 2016, 53(1): 113−122.
    [2] 王科俊, 赵彦东, 邢向磊. 深度学习在无人驾驶汽车领域应用的研究进展[J]. 智能系统学报, 2018, 13(1): 55−69.

    WANG Kejun, ZHAO Yandong, XING Xianglei. Deep learning in driverless vehicles[J]. CAAI transactions on intelligent systems, 2018, 13(1): 55−69.
    [3] SÁNCHEZ-FERRERA A, CALVO B, LOZANO J A. A review on self-supervised learning for time series anomaly detection: recent advances and open challenges[EB/OL]. (2025−01−25)[2025−06−24]. https://arxiv.org/abs/2501.15196.
    [4] 姬强, 孙艳丰, 胡永利, 等. 深度聚类算法研究综述[J]. 北京工业大学学报, 2021, 47(8): 912−924. doi: 10.11936/bjutxb2021010013

    JI Qiang, SUN Yanfeng, HU Yongli, et al. Review of clustering with deep learning[J]. Journal of Beijing University of Technology, 2021, 47(8): 912−924. doi: 10.11936/bjutxb2021010013
    [5] 张慧, 王坤峰, 王飞跃. 深度学习在目标视觉检测中的应用进展与展望[J]. 自动化学报, 2017, 43(8): 1289−1305. doi: 10.16383/j.aas.2017.c160822

    ZHANG Hui, WANG Kunfeng, WANG Feiyue. Advances and perspectives on applications of deep learning in visual object detection[J]. Acta automatica sinica, 2017, 43(8): 1289−1305. doi: 10.16383/j.aas.2017.c160822
    [6] 赵永强, 饶元, 董世鹏, 等. 深度学习目标检测方法综述[J]. 中国图象图形学报, 2020, 25(4): 629−654. doi: 10.16592/j.cnki.1004-7859.2025062001

    ZHAO Yongqiang, RAO Yuan, DONG Shipeng, et al. Survey on deep learning object detection[J]. Journal of image and graphics, 2020, 25(4): 629−654. doi: 10.16592/j.cnki.1004-7859.2025062001
    [7] 侯海薇, 丁世飞, 徐晓. 基于无监督表征学习的深度聚类研究进展[J]. 模式识别与人工智能, 2022, 35(11): 999−1014. doi: 10.16451/j.cnki.issn1003-6059.202211005

    HOU Haiwei, DING Shifei, XU Xiao. Research progress of deep clustering based on unsupervised representation learning[J]. Pattern recognition and artificial intelligence, 2022, 35(11): 999−1014. doi: 10.16451/j.cnki.issn1003-6059.202211005
    [8] 陈俊芬, 赵佳成, 翟俊海, 等. 基于无监督学习视觉特征的深度聚类方法[J]. 南京航空航天大学学报, 2021, 53(5): 718−725.

    CHEN Junfen, ZHAO Jiacheng, ZHAI Junhai, et al. Deep clustering method based on unsupervised visual features learning[J]. Journal of Nanjing University of Aeronautics & Astronautics, 2021, 53(5): 718−725.
    [9] CHIEN J T, CHEN Kuan. False negative masking for debiasing in contrastive learning[C]//2024 International Joint Conference on Neural Networks. Yokohama: IEEE, 2024: 1−6.
    [10] KIM S, JANG H. LinkFND: simple framework for false negative detection in recommendation tasks with graph contrastive learning[J]. IEEE access, 2023, 11: 145308−145319. doi: 10.1109/ACCESS.2023.3345338
    [11] DWIBEDI D, AYTAR Y, TOMPSON J, et al. With a little help from my friends: nearest-neighbor contrastive learning of visual representations[C]//2021 IEEE/CVF International Conference on Computer Vision. Montreal: IEEE, 2022: 9568−9577.
    [12] ZHUANG Chengxu, ZHAI A, YAMINS D. Local aggregation for unsupervised learning of visual embeddings[C]//2019 IEEE/CVF International Conference on Computer Vision. Seoul: IEEE, 2019: 6001−6011.
    [13] CHEN T S, HUNG W C, TSENG H Y, et al. Incremental false negative detection for contrastive learning[EB/OL]. (2021−06−07)[2025−06−24]. https://arxiv.org/abs/2106.03719.
    [14] XU Lingling, XIE Haoran, WANG F L, et al. Contrastive sentence representation learning with adaptive false negative cancellation[J]. Information fusion, 2024, 102: 102065. doi: 10.1016/j.inffus.2023.102065
    [15] GIDARIS S, BURSUC A, KOMODAKIS N, et al. Learning representations by predicting bags of visual words[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 6926−6936.
    [16] LI Yunfan, HU Peng, LIU Zitao, et al. Contrastive clustering[J]. Proceedings of the AAAI conference on artificial intelligence, 2021, 35(10): 8547−8555. doi: 10.2139/ssrn.4835366
    [17] LI Yunfan, YANG Mouxing, PENG Dezhong, et al. Twin contrastive learning for online clustering[J]. International journal of computer vision, 2022, 130(9): 2205−2221. doi: 10.1007/s11263-022-01639-z
    [18] NIU Chuang, SHAN Hongming, WANG Ge. Spice: semantic pseudo-labeling for image clustering[J]. IEEE transactions on image processing, 2022, 31: 7264−7278. doi: 10.1109/TIP.2022.3221290
    [19] DANG Zhiyuan, DENG Cheng, YANG Xu, et al. Nearest neighbor matching for deep clustering[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021: 13693−13702.
    [20] CHEN Ting, KORNBLITH S, NOROUZI M, et al. A simple framework for contrastive learning of visual representations[EB/OL]. (2020−02−13)[2025−06−24]. https://arxiv.org/abs/2002.05709.
    [21] ZHONG Huasong, WU Jianlong, CHEN Chong, et al. Graph contrastive clustering[C]//2021 IEEE/CVF International Conference on Computer Vision. Montreal: IEEE, 2021: 9204−9213.
    [22] SHI Jianbo, MALIK J. Normalized cuts and image segmentation[J]. IEEE transactions on pattern analysis and machine intelligence, 2000, 22(8): 888−905. doi: 10.1109/34.868688
    [23] CHIDANANDA GOWDA K, KRISHNA G. Agglomerative clustering using the concept of mutual nearest neighbourhood[J]. Pattern recognition, 1978, 10(2): 105−112. doi: 10.1016/0031-3203(78)90018-3
    [24] CAI Deng, HE Xiaofei, WANG Xuanhui, et al. Locality preserving nonnegative matrix factorization[C]//Proceedings of the 21st International Joint Conference on Artificial Intelligence. San Francisco: Morgan Kaufmann Publishers Inc. , 2009: 1010−1015.
    [25] BENGIO Y, LAMBLIN P, POPOVICI D, et al. Greedy layer-wise training of deep networks[C]//Advances in Neural Information Processing Systems 19. Cambridge: The MIT Press, 2007: 153−160.
    [26] VINCENT P, LAROCHELLE H, LAJOIE I, et al. Stacked denoising autoencoders: learning useful representations in a deep network with a local denoising criterion[J]. Journal of machine learning research, 2010, 11(12).
    [27] RADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL]. (2015−11−19) [2025−06−24]. https://arxiv.org/abs/1511.06434.
    [28] ZEILER M D, KRISHNAN D, TAYLOR G W, et al. Deconvolutional networks[C]//2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Francisco: IEEE, 2010: 2528−2535.
    [29] KINGMA D P, WELLING M. Auto-encoding variational Bayes[EB/OL]. (2013−12−20) [2025−06−24]. https://arxiv.org/abs/1312.6114.
    [30] XIE Junyuan, GIRSHICK R, FARHADI A. Unsupervised deep embedding for clustering analysis[EB/OL]. (2015−11−19) [2025−06−24]. https://arxiv.org/abs/1511.06335.
    [31] YANG Jianwei, PARIKH D, BATRA D. Joint unsupervised learning of deep representations and image clusters[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 5147−5156.
    [32] CHANG J, WANG L, MENG G, et al. Deep adaptive image clustering[C]//Proceedings of the IEEE International Conference on Computer Vision. Venice: IEEE, 2017: 5879−5887.
    [33] WU J, LONG K, WANG F, et al. Deep comprehensive correlation mining for image clustering[C]//Proceedings of the IEEE/CVF International Conference On Computer vision. Seoul: IEEE, 2019: 8150−8159.
    [34] HUANG Jiabo, GONG Shaogang, ZHU Xiatian. Deep semantic clustering by partition confidence maximisation[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 8846−8855.
    [35] ZHONG Huasong, CHEN Chong, JIN Zhongming, et al. Deep robust clustering by contrastive learning[EB/OL]. (2020−08−07)[2025−06−24]. https://arxiv.org/abs/2008.03030.
WeChat 点击查看大图
图(5)  /  表(4)
出版历程
  • 收稿日期:  2025-06-24
  • 网络出版日期:  2026-02-12

目录

    /

    返回文章
    返回