2. 天津市虚拟现实与可视计算国际联合中心 天津 300401;
3. 河北省数据驱动工业智能工程研究中心(河北工业大学) 天津 300401;
4. 天津仁爱学院 天津 301636;
5. 天津五洋智通智能科技有限公司 天津 300392
2. Tianjin International Joint Center for Virtual Reality and Visual Computing, Tianjin 300401, China;
3. Hebei Engineering Research Center of Data-Driven Industrial Intelligence (Hebei University of Technology), Tianjin 300401, China;
4. Tianjin Ren'ai College, Tianjin 301636, China;
5. Tianjin Wuyang Zhitong Intelligence Technology Co. Ltd, Tianjin 300392, China
深度学习中的监督分类算法被应用于众多领域,大规模高质量数据集是其取得成功的关键。然而,一些低成本方法标注的数据集存在严重的标签噪声问题,比如在线查询、众包、机器生成等[1]。据统计,现实数据集中错误标签的比例在8.0%到38.5%之间[2]。深度学习模型具有强大的记忆能力,会学习到训练数据中的噪声模式,导致过拟合问题, 标签噪声大大影响了模型的训练。
标签矫正方法尝试学习或生成新的标签,替换原有的噪声标签来处理标签噪声问题,通常借助深度学习网络的记忆效应识别潜在的噪声样本,然后根据模型输出概率矫正标签。已有的标签矫正算法取得了显著的效果,但仍面临以下问题。一方面,标签噪声增加了深度学习的不确定性,在训练中通过降低真实类预测的置信度,指导模型学习到错误的特征和规律,导致难以识别出真实的噪声结构;另一方面,标签噪声增加了深度学习模型的不确定性,随着模型对噪声标签的适应,对于相似输入可能产生不一致的预测结果,使模型的预测概率不一定能准确反映真实标签分布,使用模型预测进行标签矫正,可能会引入新的标签噪声。
为了应对标签噪声学习中的不确定性问题,提出了一种不确定性感知的标签噪声矫正(uncertainty-aware label noise correction, ULC)算法。受文献[3]的启发,ULC采用弱数据增强和强数据增强为图像生成两个不同的视图,共享权重模型。首先,基于证据神经理论和主观逻辑理论估计不确定性,将整体不确定性解偶为数据不确定性和模型不确定性,以更好地理解标签和模型预测的可靠性。其次,使用双准则样本选择策略,将数据集精细地划分为三个子集,并使用联合预测矫正噪声标签。最后,采用不同的正则化策略处理各个子集,以优化训练目标,实现鲁棒性。
1 相关工作标签矫正方法属于一种调整损失的方法,通常包含样本选择过程。样本选择方法往往基于深度神经网络的记忆效应[4],在训练前期将损失值较小的样本视为可能干净的样本,称为小损失样本选择准则。Han等[5]提出的Co-teaching利用两个独立的网络为对等网络选择小损失样本,滤除不同的噪声相关误差。Wei等[6]提出的JoCoR使用包含一致性正则项的联合损失选择样本。Dong等[2]提出的CoDC在特征层面利用分歧策略,在预测层面利用一致性最大化策略。在高噪声情况下,信息丢失是样本选择方法的致命缺点。样本重加权方法[7-8]通过调整样本权重,利用了整个数据集的信息,但最优加权函数是给所有错误标注的样本赋予0权重,因此没有解决信息丢失的问题。
标签矫正方法尝试利用所有可用的样本信息矫正噪声样本的标签。Li等[9]提出的DivideMix使用损失值动态拟合一个二分量的高斯混合模型,使用模型预测矫正标签。与DivideMix类似,Albert等[10]提出的DSOS计算模型预测和原始标签的中间值,使用该值的熵拟合一个贝塔分布。Sun等[11]提出的Co-LDL利用模型学习标签的分布对噪声样本维护一个标签矩阵,在反向传播中自动矫正标签。最优的标签矫正方法是矫正所有噪声样本的标签,因此避免了信息过度丢失的问题。
2 预备知识单一确定性的深度学习模型无法建模不确定性,对于确定性的输入会得到确定性的输出,无法输出方差(一种不确定性的度量)。证据深度学习模型[12]使用主观逻辑理论进行贝叶斯推理,建模类概率分布并提供一个计算不确定性的函数。
模型学习到一组证据
| $ P(\boldsymbol{p} \mid \boldsymbol{\alpha})= \begin{cases}\frac{1}{B(\boldsymbol{\alpha})} \prod\limits_{i=1}^K p_i^{\alpha_i-1}, & \boldsymbol{p} \in \boldsymbol{\Delta}^K, \\ 0, & \boldsymbol{p} \notin \boldsymbol{\Delta}^K, \end{cases} $ | (1) |
其中:ΔK是K维单位单纯形;B(·)是K维多项式Beta函数。在K类分类任务中,定义辨识框架Ω={ω1, ω2, …, ωK},其中ωk代表第k类。在Ω上,令命题集合Θ={{ω1}, {ω2}, …, {ωK}},对于Ω的幂集2Ω中的每个子集A定义信念函数,即
| $ m(A)= \begin{cases}0, & A=\varnothing \vee A \notin \boldsymbol{\Theta} \cup\{\boldsymbol{\Omega}\}, \\ b_k, & A \in \boldsymbol{\Theta}, i=1, 2, \cdots, K, \\ u, & A=\boldsymbol{\Omega}, \end{cases} $ | (2) |
其中:bk为各类别信度, i=1, 2, …, K;不确定信度为u,
| $ b_k=\frac{e_k}{S}=\frac{\alpha_k-1}{S}, u=\frac{K}{S}, $ | (3) |
其中:
传统神经网络分类器通常使用交叉熵损失Lce最小化标签与预测之间的距离,所用公式为
| $ L_{\mathrm{ce}}=\sum\limits_{k=1}^K y_k \log \left(p_k\right), $ | (4) |
其中:pk代表概率的第k项;yk代表标签的第k项证据深度学习模型学习的不是预测概率点,而是概率分布P(p|α)。将p代入式(4)并修改后,得到证据深度学习模型的分类损失为
| $ \begin{aligned} & L_c=\int\left[\sum\limits_{k=1}^K-y_k \log \left(p_k\right)\right] \frac{1}{B(\boldsymbol{\alpha})} \prod\limits_{k=1}^K p_k^{\alpha_k-1} \mathrm{~d} \boldsymbol{p}= \\ & \sum\limits_{k=1}^K y_k\left(\psi(S)-\psi\left(\alpha_k\right)\right), \end{aligned} $ | (5) |
其中:ψ(·)是Digamma函数。
3 ULC架构与算法设计ULC采用共享权重的双视图学习网络,算法架构如图 1所示。首先,将图像x的弱数据增强xw和强数据增强xs输入网络f中,获得两组证据ew=f(xw)和es=f(xs)。其次,基于证据理论和主观逻辑理论,融合由两个视图提供的证据获得联合主观意见,根据标签信息导出估计的数据不确定性和模型不确定性,将噪声数据集划分成三个子集,并根据联合主观意见矫正噪声标签。最后,采用不同的正则化技术克服各个子集的问题。
|
图 1 ULC架构图 Fig. 1 The structure of ULC |
ULC使用了弱增强和强增强为样本生成两个视图证据ew和es,为不确定性估计提供多样化的证据,也为模型提供更多的线索学习数据特征。由式(3)导出信念Mw={{bkw}k=1K, uw}和Ms={{bks}k=1K, us}。基于Dempster合成规则,可以融合两个视图的信念获得联合信念M={{bk}k=1K, u},
| $ \left\{\begin{array}{l} M=M^{\mathrm{w}} \oplus M^{\mathrm{s}}, \\ b_k=\frac{1}{1-C}\left(b_k^{\mathrm{w}} b_k^{\mathrm{s}}+b_k^{\mathrm{w}} u^{\mathrm{s}}+b_k^{\mathrm{s}} u^{\mathrm{w}}\right), \\ u=\frac{1}{1-C} u^{\mathrm{w}} u^{\mathrm{s}}, \end{array}\right. $ | (6) |
其中:bk表示第k类的信度;u表示不确定的信度,即不知道将样本分为第几类;
模型不确定性来源于模型缺陷,当式(6)中的u较大时,意味着模型对x的两个视图的预测信度不高或者是冲突的,表示模型的预测越随机,因此将u建模为模型不确定性,记为um=u,反映模型预测的可信程度。假设数据不确定性全部来源于标签噪声,bj较小也可能是标签错误导致的,使模型预测与标签信息的冲突性较大,即模型预测样本不是第j类的信念质量
本文为了简化,用um(·)表示计算模型不确定性的函数,用ud(·)表示计算数据不确定性的函数。估计数据不确定性和模型不确定性在评估模型预测和样本标签的可靠性方面起着关键作用。
3.2 样本选择标签矫正方法通常包含样本选择过程,其是标签噪声处理的重要步骤。ULC使用双准则样本选择策略将数据划分为三个子集,分别为数据可信集、模型可信集和不确定集。
1) 数据可信集。认为同时满足小损失和低数据不确定性的样本是更加可信的干净样本。给定比例τ,从数据集D中选择的数据可信集
| $ \left\{ {\begin{array}{*{20}{l}} {{{\widetilde {\boldsymbol{D}}}^l} = \mathop {{\mathop{\rm argmin}\nolimits} }\limits_{\left| {{{\boldsymbol{D}}^\prime }} \right| = \left\lfloor {[\tau |{\boldsymbol{D}}\mid } \right\rfloor } l\left( {f,{{\boldsymbol{D}}^\prime }} \right),}\\ {{{\widetilde {\boldsymbol{D}}}^{{\rm{ud}}}} = \mathop {{\mathop{\rm argmin}\nolimits} }\limits_{\left| {{{\boldsymbol{D}}^\prime }} \right| = \left\lfloor {[\tau |{\boldsymbol{D}}\mid } \right\rfloor } {u^{\rm{d}}}\left( {f,{{\boldsymbol{D}}^\prime }} \right),}\\ {{{\widetilde {\boldsymbol{D}}}^{\rm{d}}} = {{\widetilde {\boldsymbol{D}}}^l} \cap {{\widetilde {\boldsymbol{D}}}^{{\rm{ud}}}},} \end{array}} \right. $ | (7) |
其中:l(·)为联合损失;
| $ \tau_t=\tau+\left(\bar{b}^t-\frac{1}{t} \sum\limits_{i=1}^t \bar{b} i\right), $ | (8) |
其中:
2) 模型可信集。将同时满足高置信度和低模型不确定性的样本作为预测可信的样本。基于测试集与训练集的数据分布一致的假设,模型可信集
| $ \left\{ {\begin{array}{*{20}{l}} {{{\widetilde {\boldsymbol{D}}}^p} = \mathop {{\mathop{\rm argmax}\nolimits} }\limits_{\left| {{\boldsymbol{D}^\prime }} \right| = \left\lfloor {A|\boldsymbol{D}|} \right\rfloor } {p_{\max }}\left( {f,{{\boldsymbol{D}}^\prime }} \right),}\\ {{{\widetilde {\boldsymbol{D}}}^{{\rm{um}}}} = \mathop {{\mathop{\rm argmin}\nolimits} }\limits_{\left| {{{\boldsymbol{D}}^\prime }} \right| \lfloor T\mid {\boldsymbol{D}} \rfloor } {u^{\rm{m}}}\left( {f,{{\boldsymbol{D}}^\prime }} \right),}\\ {{{\widetilde {\boldsymbol{D}}}^{\rm{m}}} = {{\widetilde {\boldsymbol{D}}}^p} \cap {{\widetilde {\boldsymbol{D}}}^{{\rm{um}}}} - {{\widetilde {\boldsymbol{D}}}^{\rm{d}}},} \end{array}} \right. $ | (9) |
其中:pmax(·)用于计算模型预测的最大类概率;T是上一个迭代的测试准确率;
3) 不确定集。不确定集包含那些模型预测概率较低,并且数据标签本身可能不正确的数据点,不确定子集
| $ \tilde{\boldsymbol{D}}^{\mathrm{u}}=\boldsymbol{D}-\tilde{\boldsymbol{D}}^{\mathrm{d}}-\tilde{\boldsymbol{D}}^{\mathrm{m}}{ }_{\circ} $ | (10) |
将数据划分为数据可信集、模型可信集和不确定集,可以更好地理解和探索模型对不同数据点的预测置信度和不确定性,从而可以针对性地采用不同的方式,提高模型鲁棒性。
3.3 标签矫正数据可信集使用原始标签,模型可信集和不确定集使用联合预测进行标签矫正。在处理时,将数据集分为数据可信集、可信集和不确定性集,其中可信集是数据可信集和模型可信集的组合。图 2展示了在包含40% Symmetric标签噪声的数据集CIFAR-10和CIFAR-100上不同子集的占比、矫正标签准确率和噪声率,不同子集反映不同的噪声程度。
|
图 2 CIFAR-10(上)和CIFAR-100(下)中不同子集的占比、矫正标签准确率和噪声率 Fig. 2 The ratio, label correction accuracy, and noise ratio of different subsets in CIFAR-10 (top) and CIFAR-100 (bottom) |
1) 数据可信集
| $ L_{\mathrm{d}}=\frac{1}{2\left|\tilde{\boldsymbol{D}}^{\mathrm{d}}\right|} \sum\limits_{\boldsymbol{x} \in \tilde{\boldsymbol{D}}^{\mathrm{d}}} l\left(f, \boldsymbol{x}^{\mathrm{w}}\right)+l\left(f, \boldsymbol{x}^{\mathrm{s}}\right), $ | (11) |
| $ l=L_{\mathrm{c}}+\lambda L_{\mathrm{kl}}, $ | (12) |
其中:xw是弱增强视图;xs是强增强视图;Lc为分类损失项;Lkl为KL散度损失项。在证据深度学习中,学习到x的预测概率分布为Dirichlet分布P(p|α)。RL散度损失项为
| $ L_{\mathrm{kl}}=K L[P(\boldsymbol{p} \mid \tilde{\boldsymbol{\alpha}}) \mid P(\boldsymbol{p} \mid \mathbf{1})], $ | (13) |
其中:
2) 可信集
获得样本的联合信念M={{bk}k=1K, u}之后,根据式(3)可以导出联合证据e=[e1, e2, …, eK]和相应的Dirichlet分布参数α=[α1, α2, …, αK],
| $ S=\frac{K}{u}, e_k=b_k \times S, \alpha_k=e_k+1_{\circ} $ | (14) |
联合预测的类概率p=α/S。可信集中可能包含被网络记忆的错误标签或过度自信的错误预测,直接使用矫正标签来监督训练,很容易过拟合。受Mixup[13]技术的启发,对样本执行插值混合操作进行正则,并采用了一种简单的解耦原则[14]。随机采样两个样本
| $ \left\{\begin{array}{l} \tilde{\boldsymbol{x}}_1=\lambda_1 \boldsymbol{x}_{\mathrm{a}}^{\mathrm{w}}+\left(1-\lambda_1\right) \boldsymbol{x}_{\mathrm{b}}^{\mathrm{s}}, \\ \tilde{\boldsymbol{x}}_2=\lambda_2 \boldsymbol{x}_{\mathrm{a}}^{\mathrm{w}}+\left(1-\lambda_2\right) \boldsymbol{x}_\mathrm{b}^{\mathrm{s}} 。\end{array}\right. $ | (15) |
将两个插值混合样本输入网络,解耦输出分别为
| $ \left\{\begin{array}{l} \tilde{g}_{\mathrm{a}}=\frac{f^{-1}\left(\tilde{\boldsymbol{x}}_1\right)-f^{-1}\left(\tilde{\boldsymbol{x}}_2\right)\left(1-\lambda_1\right) /\left(1-\lambda_2\right)}{\lambda_1-\lambda_2\left(1-\lambda_1\right) /\left(1-\lambda_2\right)}, \\ \tilde{g}_{\mathrm{b}}=\frac{f^{-1}\left(\tilde{\boldsymbol{x}}_1\right)-f^{-1}\left(\tilde{\boldsymbol{x}}_2\right) \lambda_2 / \lambda_1}{1-\lambda_2-\left(1-\lambda_1\right) \lambda_2 / \lambda_1}, \end{array}\right. $ | (16) |
其中:f-1(·)为激活层前一层的输出。两个插值混合样本对应的Dirichlet分布为
| $ L_{\mathrm{t}}=\frac{1}{2\left|\tilde{\boldsymbol{D}}^{\mathrm{t}}\right|} \sum\limits_{\boldsymbol{x} \in \tilde{\boldsymbol{D}}^{\mathrm{t}}} L_{\mathrm{c}}\left(\tilde{\boldsymbol{x}}_{\mathrm{a}}\right)+L_{\mathrm{c}}\left(\tilde{\boldsymbol{x}}_{\mathrm{b}}\right), $ | (17) |
其中: 数据可信集由原始标签y指导; 模型可信集由矫正标签y′指导。
3) 不确定集
| $ L_u=\frac{1}{|\boldsymbol{D}|} \sum\limits_{\boldsymbol{x} \in \tilde{\boldsymbol{D}}^u}\left|p\left(\boldsymbol{x}^{\mathsf{w}}\right)-\hat{\boldsymbol{y}}\right|^2+\left|p\left(\boldsymbol{x}^{\mathsf{s}}\right)-\hat{\boldsymbol{y}}\right|^2, $ | (18) |
其中:p(·)计算网络输出的类概率分数。
3.4 总体损失ULC的整体训练目标采用三个不同的损失项,总体损失为
| $ L_{\text {overall }}=L_{\mathrm{d}}+L_{\mathrm{t}}+L_{\mathrm{u}}, $ | (19) |
其中:对于数据可信集
实验遵循之前的工作[15],在数据集CIFAR-10和CIFAR-100上使用Symmetric、Asymmetric、Pairflip和Tridiagonal四种类型的噪声对数据集进行人为损坏,其噪声转移矩阵如图 3所示。在数据集F-MNIST和SVHN上进行了长尾处理,并引入Asymmetric类型的标签噪声,采用两种模拟方法手动减少不同类别的训练样本比例。以SVHN为例,用线性处理方式构建长尾数据集如图 4(a)所示,称为SVHN-LINE-ASYM。类似的,用指数处理方式构建长尾数据集如图 4(b)所示,称为SVHN-EXP-ASYM。在真实标签噪声数据集Clothing1M上,遵循之前的工作[9],每个迭代从训练数据中抽取1 000个小批量的样本,同时确保标签(带有噪声)是平衡的。所有数据集使用随机裁剪和水平翻转作为弱数据增强,采用RandAugment[16]作为强数据增强。
|
图 3 噪声转移矩阵 Fig. 3 Noise transfer matrix |
|
图 4 各类别样本比例 Fig. 4 The sample proportions of each class |
在F-MNIST和SVHN上,使用9层卷积神经网络和自适应矩阵估计优化器,权重衰减为5e-4,初始学习率为0.001,从第80到200个迭代线性衰减为0,λ为0.05,τ设置为估计的标签准确率,从第10个迭代开始标签矫正。在CIFAR-10和CIFAR-100上,使用PreActResnet-18网络和动量为0.9的随机梯度下降优化器,权重衰减为1e-3,初始学习率为0.02,分别在第80和100个迭代时,将学习率减小至1/10,λ为0.05,τ设置为数据集原始标签准确率,CIFAR-10从第10个迭代开始标签矫正,CIFAR-100从第30个迭代开始标签矫正。在Clothing1M上使用ImageNet上的Resnet-18网络,使用动量为0.9的随机梯度下降优化器,权重衰减为1e-3,初始学习率设为0.002,在第50和80个迭代时将学习率减小至1/10,λ为0.5,τ为0.7,从第2个迭代开始标签矫正。
另外,在F-MNIST、SVHN、CIFAR-10和CIFAR-100上批量大小为128,训练200个迭代,RandAugment的参数n为2, m为5。在Clothing1M上批量大小为64,训练100个迭代,RandAugment的参数n为2, m为10。
4.3 对比实验分析为了证明ULC的有效性,与10种现有算法进行比较,所有算法都使用相同的网络架构。CE基线直接在噪声数据集上使用交叉熵损失进行训练;EDL[12]基线直接在噪声数据上使用证据深度学习模型训练;Mixup[13]基线仅在CE的基础上使用Mixup数据增强;Co-learning[17]属于正则化方法;Co-teching[5]、JoCoR[6]和BARE[18]属于样本选择方法。DivideMix[9]、Co-LDL[11]和DSOS[10]属于标签矫正方法。
首先在CIFAR-10和CIFAR-100上进行了模拟标签噪声场景下的性能测试。如表 1和表 2所示,所有的样本选择方法和标签矫正方法都优于Mixup基线。在复杂特征的数据集CIFAR-100上,强增强正则化方法Mixup与标准CE基线相比,泛化性能下降。在20%噪声比例上,ULC相比现有算法,获得了很好的效果。在40%的噪声比例上,DivideMix在非对称噪声类型上的性能开始退化,其他算法在所有噪声类型上的性能都明显下降,而ULC依然保持相对稳定的性能。在更具挑战性的40%的Pairflip类型的标签噪声上,相比现有算法,ULC的平均测试准确率提升了至少8个百分点。优越的性能表现验证了ULC在各种平衡噪声下可以实现更好的鲁棒性。
|
|
表 1 CIFAR-10数据集上3次重复实验的后10个迭代的平均测试准确率及标准差 Tab. 1 Average test accuracy and standard deviation of the last 10 epochs on CIFAR-10, 3 repeats |
|
|
表 2 CIFAR-100数据集上3次重复实验的后10个迭代的平均测试准确率及标准差 Tab. 2 Average test accuracy and standard deviation of the last 10 epochs on CIFAR-100, 3 repeats |
表 3展示了在不平衡噪声数据集F-MNIST和SVHN上的结果。除了标签噪声问题,真实数据集中往往还存在类别不平衡问题,可能导致模型在训练和预测过程中偏向于数量更多的类别。模拟实际应用中两种问题同时存在的情况,进一步评估现有算法在面对现实挑战时的性能表现。ULC在所有设置上取得了有竞争性的性能,验证了ULC在处理更复杂的噪声场景方面的优越性。所有对比算法的结果是使用公开代码在相同实验环境下获得的。
|
|
表 3 不平衡数据集上3次重复实验的后10个迭代的平均测试准确率及标准差 Tab. 3 Average test accuracy and standard deviation of the last 10 epochs on imbalanced datasets, 3 repeats |
在真实噪声数据集Clothing1M上,与强基线DivideMix的测试准确率74.45%相比,ULC取得了较好的测试准确率73.51%。需要注意的是,ULC只需要一个网络,而DivideMix需要两个网络,每个网络为对等网络选择样本并矫正标签。Clothing1M上的实验反映了ULC在真实应用场景的鲁棒性和泛化性能。
4.4 标签矫正策略分析为了解释ULC的良好性能,绘制了在CIFAR上矫正标签准确率与迭代次数的关系,如图 5所示。这里只考虑DivideMix、Co-LDL、DSOS和ULC算法,因为它们在训练过程中包括标签矫正。
|
图 5 四种算法在训练过程中的矫正标签准确率比较 Fig. 5 Comparison of correction label accuracy during training of four algorithms |
所有算法在CIFAR-10上从第10个迭代开始矫正,在CIFAR-100上从第30个迭代开始矫正。从图 5可以看到,除DivideMix外,所有算法都成功矫正了噪声标签,比原始数据集的标签准确率更高。DivideMix在CIFAR-100上40%的非对称标签噪声Asymmtric和Pairflip设置下,矫正标签准确率比原始标签准确率更低,没有成功的矫正标签。DSOS的矫正标签准确率表现出明显的不稳定。Co-LDL利用模型的反向传播自动修正标签的方法,导致正确标签信息的信号不足,在训练过程中矫正标签的准确率增长缓慢。ULC取得了最高的矫正标签准确率,展示了其在处理标签噪声方面的有效性和鲁棒性。
5 结语本文基于证据理论和主观逻辑理论,提出了一种不确定性感知的标签矫正算法ULC。ULC分别估计了模型不确定性和数据不确定性,将噪声数据分为三个噪声水平不同的子集,利用联合预测矫正标签,并采用不同的正则化策略,提高了矫正标签的准确率和分类性能。在模拟和真实噪声数据集上的实验验证了ULC的有效性。模型不确定性和数据不确定性不是完全独立的关系,某些情况下存在交叉,并相互影响。深度学习中的不确定性是一个复杂而重要的问题,在实际中难以用这两种不确定性简单刻画。因此,如何更准确地理解深度学习中的不确定性,是一个值得持续研究的问题。
| [1] |
徐巧枝, 张俊星. 基于最大匹配的移动众包任务分配研究[J]. 郑州大学学报(理学版), 2022, 54(3): 66-72. XU Q Z, ZHANG J X. Mobile crowdsourcing task allocation based on maximum matching[J]. Journal of Zhengzhou university (natural science edition), 2022, 54(3): 66-72. DOI:10.13705/j.issn.1671-6841.2021285 ( 0) |
| [2] |
DONG Y F, LI J W, WANG Z, et al. CoDC: accurate learning with noisy labels via disagreement and consistency[J]. Biomimetics, 2024, 9(2): 92-99. DOI:10.3390/biomimetics9020092 ( 0) |
| [3] |
SOHN K, BERTHELOT D, LI C L, et al. FixMatch: simplifying semi-supervised learning with consistency and confidence[EB/OL]. (2020-11-25)[2024-02-01]. https://arxiv.org/pdf/2001.07685v2.
( 0) |
| [4] |
ARPIT D, JASTRZBSKI S, BALLAS N, et al. A closer look at memorization in deep networks[C]//Proceedings of the International Conference on Machine Learning. Cambridge: PMLR Press, 2017: 233-242.
( 0) |
| [5] |
HAN B, YAO Q M, YU X R, et al. Co-teaching: robust training of deep neural networks with extremely noisy labels[C]//Proceedings of the International Conference on Neural Information Processing Systems. Red Hook: Curran Associates Press, 2018: 8536-8546.
( 0) |
| [6] |
WEI H X, FENG L, CHEN X Y, et al. Combating noisy labels by agreement: a joint training method with co-regularization[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2020: 13723-13732.
( 0) |
| [7] |
REN M Y, ZENG W Y, YANG B, et al. Learning to reweight examples for robust deep learning[C]//Proceedings of the International Conference on Machine Learning. Cambridge: PMLR Press, 2018: 4334-4343.
( 0) |
| [8] |
PARK J, SHIN S, HWANG S, et al. Elucidating robust learning with uncertainty-aware corruption pattern estimation[J]. Pattern recognition, 2023, 138: 109387. DOI:10.1016/j.patcog.2023.109387 ( 0) |
| [9] |
LI J N, SOCHER R, HOI S C H. DivideMix: Learning with noisy labels as semi-supervised learning[C]//Proce-edings of the International Conference on Learning Repr-esentations. Washington: ICLR Press, 2020: 26-30.
( 0) |
| [10] |
ALBERT P, ORTEGO D, ARAZO E, et al. Addressing out-of-distribution label noise in webly-labelled data[C]//2022 IEEE/CVF Winter Conference on Applications of Computer Vision. Piscataway: IEEE Press, 2022: 2393-2402.
( 0) |
| [11] |
SUN Z R, LIU H F, WANG Q, et al. Co-LDL: a co-training-based label distribution learning method for tackling label noise[J]. IEEE transactions on multimedia, 2021, 24: 1093-1104. ( 0) |
| [12] |
SENSOY M, KAPLAN L, KANDEMIR M. Evidential deep learning to quantify classification uncertainty[C]//Proceedings of the Neural Information Processing Systems. Red Hook: Curran Associates Press, 2018: 3179-3189.
( 0) |
| [13] |
ZHANG H Y, CISSE M, DAUPHIN Y, et al. Mixup: Beyond empirical risk management[C]//Proceedings of the International Conference on Machine Learning. Cambridge: PMLR Press, 2018: 1-13.
( 0) |
| [14] |
WANG D B, LI L Q, ZHAO P L, et al. On the pitfall of mixup for uncertainty calibration[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2023: 7609-7618.
( 0) |
| [15] |
XIA X B, HAN B, ZHAN Y B, et al. Combating noisy labels with sample selection by mining high-discrepancy examples[C]//2023 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE Press, 2023: 1833-1843.
( 0) |
| [16] |
CUBUK E D, ZOPH B, SHLENS J, et al. Randaugment: practical automated data augmentation with a reduced search space[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Piscataway: IEEE Press, 2020: 3008-3017.
( 0) |
| [17] |
TAN C, XIA J, WU L R, et al. Co-learning: learning from noisy labels with self-supervision[C]//Proceedings of the 29th ACM International Conference on Multimedia. New York: ACM, 2021: 1405-1413.
( 0) |
| [18] |
PATEL D, SASTRY P S. Adaptive sample selection for robust learning under label noise[C]//2023 IEEE/CVF Winter Conference on Applications of Computer Vision. Piscataway: IEEE Press, 2023: 3921-3931.
( 0) |
2026, Vol. 58



0)