基于多教师自适应知识蒸馏的TSK模糊分类器

张雄涛 陈天宇 赵康 李水苗 申情

张雄涛, 陈天宇, 赵康, 等. 基于多教师自适应知识蒸馏的TSK模糊分类器 [J]. 智能系统学报, 2025, 20(5): 1136-1147. doi: 10.11992/tis.202410028
引用本文: 张雄涛, 陈天宇, 赵康, 等. 基于多教师自适应知识蒸馏的TSK模糊分类器 [J]. 智能系统学报, 2025, 20(5): 1136-1147. doi: 10.11992/tis.202410028
ZHANG Xiongtao, CHEN Tianyu, ZHAO Kang, et al. TSK fuzzy classifier based on multi-teacher adaptive knowledge distillation [J]. CAAI Transactions on Intelligent Systems, 2025, 20(5): 1136-1147. doi: 10.11992/tis.202410028
Citation: ZHANG Xiongtao, CHEN Tianyu, ZHAO Kang, et al. TSK fuzzy classifier based on multi-teacher adaptive knowledge distillation [J]. CAAI Transactions on Intelligent Systems, 2025, 20(5): 1136-1147. doi: 10.11992/tis.202410028

基于多教师自适应知识蒸馏的TSK模糊分类器

doi: 10.11992/tis.202410028
基金项目: 国家自然科学基金项目(62376094, U22A201856).
详细信息
    作者简介:

    张雄涛,副教授,博士,主要研究方向为人工智能与模式识别、机器学习。E-mail:1047897965@qq.com;

    陈天宇,硕士研究生,主要研究方向为模糊系统、深度学习。E-mail:2529935825@qq.com;

    申情,教授,博士,主要研究方向为智能信息处理、智慧交通。E-mail:sq@zjhu.edu.cn.

    通讯作者:

    申情. E-mail:sq@zjhu.edu.cn.

  • 中图分类号: TP181

TSK fuzzy classifier based on multi-teacher adaptive knowledge distillation

  • 摘要: 目前层次型或深度模糊系统性能优异,但是模型复杂度较高;而基于蒸馏学习的轻量型TSK(Takagi-Sugeno-Kang)模糊分类器主要以单教师知识蒸馏为主,若教师模型表现不佳,则会影响蒸馏效果和模型的整体性能;此外,传统的多教师蒸馏通常使用无标签策略分配教师模型输出的权重,容易使低质量教师误导学生。对此,本文提出了一种基于多教师自适应知识蒸馏的TSK模糊分类器(TSK fuzzy classifier based on multi-teacher adaptive knowledge distillation, TSK-MTAKD),以多个具有不同神经表达能力的深度神经网络为教师模型,利用本文提出的多教师知识蒸馏框架从多个深度学习模型中提取隐藏知识,并传递给具有强大不确定处理能力的TSK模糊系统。同时设计自适应权重分配器,将教师模型的输出与真实标签做交叉熵处理,更接近真实值的输出将被赋予更高权重,提高了模型的鲁棒性与隐藏知识的有效性。在13个UCI数据集上的实验结果充分验证了TSK-MTAKD的优势。

     

    Abstract: Currently, hierarchical and deep fuzzy systems demonstrate excellent performance, but they often suffer from high model complexity. Lightweight Takagi-Sugeno-Kang (TSK) fuzzy classifiers based on distillation learning typically rely on single-teacher knowledge distillation. However, if the teacher model underperforms, then the distillation effect and the overall model performance can be compromised. Furthermore, traditional multiteacher distillation approaches often assign weights to teacher model outputs using label-free strategies, which may allow low-quality teachers to mislead the student model. Aiming to address these issues, this paper introduces a TSK fuzzy classifier based on multiteacher adaptive knowledge distillation (TSK-MTAKD). The method employs multiple deep neural networks, each with different neural expression capabilities, as teacher models. The proposed distillation framework extracts dark knowledge from these models and transfers it to a TSK fuzzy system, leveraging its strong capability to handle uncertainty. Additionally, an adaptive weight allocator is introduced, which performs cross-entropy calculations between the output of the teacher model and the true label. Outputs that are closer to the true label are assigned higher weights, thereby improving model robustness and the quality of dark knowledge. Experimental results on 13 UCI benchmark datasets validate the advantages of the TSK-MTAKD approach.

     

  • 深度学习[1]通过深层神经网络来模拟和学习数据中的复杂特征和表示,以实现各种机器学习任务,如图像识别、自然语言处理、语音识别、推荐系统等。它已经成为人工智能领域的主要技术,并在解决复杂问题和处理大规模数据方面具有广泛的应用[2]

    除了深度学习外,在机器学习中,模糊系统是一种基于模糊逻辑理论的建模和控制方法,旨在处理那些难以准确建模的复杂系统,特别是存在不确定性和模糊性数据的系统。TSK(Takagi-Sugeno-Kang)模糊系统[3]是一种特定类型的模糊逻辑系统,用于进行模糊推理和建模,在模糊逻辑领域中被广泛应用,其通常用于建立基于IF-THEN模糊规则的推理系统、控制系统,以及模糊数据建模等。TSK模糊系统的一个关键特点是它能够将模糊输入数据映射到确定性的输出,这使得它在需要准确控制和建模的应用中非常有效。此外,它通常通过模糊推理和模糊学习方法进行建模和优化,以适应特定应用的需求。不仅如此,其也因为直观的模糊规则,从而拥有较高的可解释性。

    除此以外,知识蒸馏[4]也是一种机器学习技术,旨在通过将一个复杂模型(通常称为“教师模型”)的知识传递给一个较简单的模型(通常称为“学生模型”),来提高学生模型的性能。这个概念提出后便被广泛应用于深度学习领域。知识蒸馏的基本思想是,通过教师模型的预测结果和中间表示(通常是模型的软标签或特征表示)来指导学生模型的训练。这有助于学生模型更好地学习复杂任务,特别是在数据有限的情况下。

    近年来,随着知识蒸馏方法的提出,研究者们也开始探索将TSK模糊逻辑系统与知识蒸馏相结合的创新方法。如Jiang等[5]提出了一种基于卷积神经网络(convolutional neural network, CNN)的CNNBaTSK(CNN-based born-again Takagi-Sugeno-Kang fuzzy classifier)模型,采用非迭代学习方法来求解模糊规则的后向参数,为知识蒸馏方法提供了新的视角。Júnior等[6]通过知识蒸馏技术,将复杂模型的知识传递给TSK模糊系统,提高了模型的可解释性和性能。Gu等[7]提出了一种将深度神经网络(deep neural network, DNN)的知识传递给TSK模糊推理系统的方法,其通过知识蒸馏技术,将DNN的知识表达为模糊规则,从而更容易解释特定的决策。Zhang等[8]提出了HTSK-LLM-DKD(high-order TSK to low-order TSK fuzzy classifier with least learning machine based decoupling knowledge distillation),其将高阶TSK模糊分类器作为教师模型,低阶TSK模糊分类器作为学生模型,利用解耦知识蒸馏将高阶TSK模糊分类器中的隐藏知识迁移到低阶TSK模糊分类器中。Erdem等[9]提出了一种基于深度学习的知识蒸馏方法,将深度模型的泛化能力迁移到区间二型模糊逻辑系统中,显著提高了模糊逻辑系统的学习性能。

    目前知识蒸馏与TSK模糊逻辑系统相结合的研究大多采用单教师知识蒸馏的方法,但是在教师模型表现不佳的情况下,教师会误导学生,从而影响模型的性能。除此以外,现有的多教师知识蒸馏通常对教师的输出取平均或采用其他无标签策略[10-11],这对于不同能力的教师模型来说显然是不合理的。为此,本文提出了基于多教师自适应知识蒸馏的TSK模糊系统算法(TSK fuzzy classifier based on multi-teacher adaptive knowledge distillation, TSK-MTAKD),从多个教师模型中提取隐藏知识传递给学生模型,即利用多个教师模型来提升TSK模糊逻辑系统的性能,提高模型的鲁棒性。除此以外,本文还设计了自适应权重分配器,使教师模型面对不同的数据集能根据准确率自适应地分配输出权重。本文的主要贡献如下:

    1)本文将图卷积网络(graph convolutional network, GCN)、CNN、Transformer 3个神经网络作为教师模型,TSK模糊逻辑系统作为学生模型,利用多教师知识蒸馏,从3个教师模型中提取隐藏知识传递给学生模型,从而提升TSK模糊分类器的性能。与传统的单教师知识蒸馏模型相比,本文的TSK-MTAKD在保证模型可解释性的同时,提升了模型的性能,增加了模型的鲁棒性。

    2)本文设计了一种自适应权重分配器,计算多个教师模型的输出与真实标签之间的交叉熵损失,使蒸馏模型能根据不同规模的数据集下教师模型的性能差距自适应地分配教师模型的权重,与传统的多教师权重分配方法相比,本文的自适应权重分配器能根据实际情况合理地分配权重,从而更有利于隐藏知识的提取。

    3) TSK-MTAKD在13个UCI数据集上充分体现了其有效性,在大多数数据集上都取得了最好的性能,其性能优于高阶TSK模糊分类器,具有更强大的泛化能力。

    TSK模糊逻辑系统是最为著名的模糊分类器之一,其最为著名的是它的模糊规则,以第$k$条规则为例,TSK模糊逻辑系统的模糊规则可以表示为

    $$ \begin{gathered} {\text{IF }}{x_1}{\text{ is }}A_1^k{\text{ and }}{x_2}{\text{ is }}A_2^k{\text{ and }} \cdots {\text{ }}{x_m}{\text{ is }}A_m^k, \\ {\text{THEN }}{y_k} = {f^k}({{\boldsymbol{X}}}){\text{ }}k = 1,2, \cdots ,K \\ \end{gathered} $$ (1)

    式中:${x_i}$代表输入向量${\boldsymbol X}$的第$i$个特征;$A_i^k$代表第$k$条规则在第$i$个输入特征${x_i}$上的前件模糊集;${f^k}{\text{(}}{\boldsymbol X})$代表第$k$条规则的后件;$K$代表模糊规则的数量。这些模糊规则构成了一个模糊知识库,每个模糊规则都可以被看成一块模糊知识。式(1)中的IF-THEN模糊规则和人类的语言非常接近,因此可以说模糊规则能被人类读懂和理解,即TSK模糊系统具有较高的可解释性。其前件首先将输入数据划分为多个模糊区域,这通常用到模糊聚类[12]、K-means 聚类[13]或等间距划分等算法,然后应用高斯隶属度函数计算得到每个输入数据的隶属度,最后将其规范化,这就得到了模糊规则的“IF”部分,这一部分描述了输入数据和各模糊区域之间的关联关系。其后件是对前件部分进行求解和优化,通常使用最小学习机[14]或全连接层[15]等算法,求解过程中得到的系数就是后件参数,这也就是模糊规则的“THEN”部分,这一部分描述的是隶属度和结果的关系。

    近年来,TSK模糊系统有迅速的发展和改进, Qin等[16]以特殊方式堆叠组合0阶TSK模糊分类器,显著提升了其分类性能,并增强了对环境变化的适应性。Xue等[17]引入了一种独特的门函数,通过在训练阶段同时进行特征选择和规则提取,有效提升了模糊规则的质量。Cui等[18]用层归一化的方法缓解了梯度消失的问题,提高了TSK的泛化性能。

    CNN[19]是一类专门设计用于处理网格结构数据的深度学习模型,最初主要应用于计算机视觉任务。CNN通过卷积层[20]、池化层和全连接层等组件,以端到端的方式学习输入数据的特征表示,通过卷积操作来有效地提取输入数据中的特征。这些层通常包括softmax激活函数,用于多类别分类问题。近年来,CNN也发展出了许多变体,如ResNet[21]、MobileNet[22]、EfficentNet[23]等。

    GCN[24]是另一种深度学习模型,GCN的核心思想是通过卷积操作来学习图数据中节点之间的关系,使得模型能够有效地捕捉图的结构信息。GCN主要用于处理图结构数据,其中节点表示图中的实体,边表示节点之间的关系。这种图结构的表示可以用邻接矩阵来描述,邻接矩阵的矩阵元素表示节点之间的连接关系。近年来,GCN被广泛用于交通流预测等领域,并在原有的基础上产生了许多新的变体,如Zhao等[25]将时空交通数据建模为图结构,并利用图卷积操作来学习时空特征,利用时空邻近性以及节点之间的交互关系,有效地捕获交通数据的复杂时空动态。Abu-Ei-Haija等[26]结合多个尺度的图卷积操作,在不同的尺度下捕获图数据的局部和全局特征,提高了节点分类任务的性能和泛化能力。

    Transformer[27]是一种基于自注意力机制[28]的深度学习模型架构,于 2017年被提出,其最初用于自然语言处理(natural language processing,NLP)领域。Transformer使用自注意力机制,通过对输入序列中不同位置的元素赋予不同的权重,实现对序列内元素之间关系的建模。这使得模型能够处理长距离依赖关系,而无需依赖固定大小的局部窗口。近年来,越来越多的学者在Transformer的基础上研究出新的深度学习模型。Devlin等[29]提出了一种基于Transformer的预训练语言模型BERT(bidirectional encoder representations from transformers),通过双向Transformer编码器来学习句子表示。Yang等[30]通过组合自回归和自编码的方式来进行训练模型,在多项NLP任务上取得了最佳性能,超越了之前的许多模型。除此以外,最近热门的GPT(generative pre-trained transformer)系列模型[31]也是基于Transformer的预训练语言模型,GPT模型使用了Transformer的解码器结构,并采用了自回归生成的方式来生成文本。

    深度学习模型因其强大的学习能力被各大领域的学者广泛使用,其支持端到端的学习并且能适应大规模数据,因此在许多领域取得了巨大的成功。但是深度学习模型一般是黑盒模型,其内部的决策过程难以解释,并且在调优和调试时由于模型内部结构复杂,其行为和性能很难被完全理解和解释。

    在机器学习中,大模型能从大量的复杂数据中进行学习和泛化特征,学习能力强;相比之下,小模型结构简单,计算消耗更少,但其泛化能力比不过大模型。因此可以通过知识蒸馏将大模型学到的隐藏知识,即映射关系传递给小模型,以此来提高小模型的性能。首先将数据集同时输入教师模型和学生模型,通过带有温度参数$\tau $的softmax函数将两者的输出${\boldsymbol Z}_i$转化为软标签${{\beta}_i }$

    $$ \beta_i=\frac{\exp(\boldsymbol{Z}_i/\tau)}{\displaystyle\sum\limits_{j=1}^C\exp(\boldsymbol{Z}_j/\tau)} $$ (2)

    随后再计算两者的蒸馏损失,然后计算学生模型与真实标签的硬损失。两个损失构成了学生模型的损失函数,知识蒸馏的目标就是最小化学生模型的损失函数,以提高模型的性能。

    知识蒸馏可以从性能较好但运行时间较长的大模型中提取隐藏知识,传递给运行时间短但性能较差的小模型,在保证模型运行时间短的同时提升了模型的性能。近年来,许多学者利用知识蒸馏来提升小模型的性能表现[32-34]。知识蒸馏模型如图1所示。

    图  1  知识蒸馏模型
    Fig.  1  Knowledge distillation model
    下载: 全尺寸图片

    本文采用多教师自适应知识蒸馏,选用GCN、CNN、Transformer作为教师模型,一阶TSK模糊逻辑系统作为学生模型,将隐藏知识从教师网络提取出来,并传递给学生模型,在保持学生模型高解释性的同时,提高学生模型的性能。模型的整体架构如图2所示。从图2中可以看到,将输入同时输进学生模型和3个教师模型,可以得到各自的概率输出。3个教师模型的概率输出通过设计的自适应权重分配器整合成一个新的概率输出,再计算其与学生模型输出的软标签,计算两者的蒸馏损失。将学生模型的输出与真实标签作交叉熵,就可以得到两者的硬损失。将硬损失与蒸馏损失各自加权,即可得到模型的总损失。

    图  2  TSK-MTAKD整体模型
    Fig.  2  Overall model of TSK-MTAKD
    下载: 全尺寸图片
    2.2.1   教师模型

    GCN能根据节点间的关系创建邻接矩阵,具有良好的图结构处理能力;CNN因其层次化结构而在图像等高维数据处理上性能强大并得到了广泛的应用;Transformer则因其采用注意力机制而使系统拥有强大的序列数据处理能力。因此,为了提高模型面对不同数据的处理能力,本研究选择GCN、CNN、Transformer作为教师网络,假设输入的特征为${\boldsymbol X} = ( {{\boldsymbol x}_1},{{\boldsymbol x}_2}, \cdots ,{{\boldsymbol x}_i}, \cdots ,{{\boldsymbol x}_m}{{\text{)}}^{\text{T}}} \in {\mathbb{R}^{N \times m}}$

    对于GCN,假设有$N$个样本,本文针对输入的特征${\boldsymbol X}$创建一个邻接矩阵${\boldsymbol A}$$ {\boldsymbol A} \in {\mathbb{R}^{m \times m}} $,然后通过捕获特征之间的内在联系来更新邻接矩阵${\boldsymbol A}$,对于整体的GCN框架,正向传播公式为

    $$ {{\boldsymbol Z}_{\text{G}}}_{{\text{CN}}} = f({{\boldsymbol{X}}},{\boldsymbol A}) = {\text{softmax(}}{{\tilde {\boldsymbol{D}}}^{ - \tfrac{1}{2}}}{\tilde {\boldsymbol{A}}}{{\tilde {\boldsymbol{D}}}^{ - \tfrac{1}{2}}}{\boldsymbol X}{{{\boldsymbol{W}}}^{(0)}}{\text{)}} $$ (3)

    式中:$ {{\boldsymbol Z}_{\text{GCN}}} $是GCN的输出;$ {\tilde {\boldsymbol{A}}} = {\boldsymbol A} + {{\boldsymbol{I}}} $${{\boldsymbol{I}}}$是单位矩阵;${\tilde {\boldsymbol{D}}}$$ {\tilde {\boldsymbol{A}}} $的度矩阵,$ {\tilde {\boldsymbol{D}}}_{ii} = \displaystyle\sum_j { {{\tilde {\boldsymbol{A}}}}_{ij}} $$ {{{\boldsymbol{W}}}^{(0)}} $是第0层的权重矩阵。

    对于CNN,本文选择使用含有4层卷积层的CNN。将输入的特征${\boldsymbol X}$输入到教师模型CNN中,首先在卷积层中,采用卷积核进行卷积运算,随后加入偏置,再利用激活函数进行非线性变换,得到的输出作为下一层卷积层的输入再次卷积,具体公式为

    $$ \begin{gathered} {{\boldsymbol Z}_0} = f({{\boldsymbol W}_0}{\boldsymbol X} + {{{\boldsymbol{b}}}_0}) \\ {{\boldsymbol Z}_1} = f({{\boldsymbol W}_1}{{\boldsymbol Z}_0} + {{{\boldsymbol{b}}}_1}) \\ \vdots \\ {{\boldsymbol Z}_r} = f({{\boldsymbol W}_r}{{\boldsymbol Z}_{r - 1}} + {{{\boldsymbol{b}}}_r}) \\ \end{gathered} $$ (4)

    式中:${{\boldsymbol Z}_r}$表示第$r$层卷积层的输出,$f( \cdot )$代表激活函数,${{\boldsymbol W}_r}$代表第$r$层卷积层的卷积核,${{b}_r}$表示第$r$层卷积层的偏置。

    卷积后利用全连接层将深度特征映射到新的特征空间,随后得到的输出利用softmax激活函数转化为概率输出,具体公式为

    $$ {{\boldsymbol Z}_{\mathrm{a}}} = f({{\boldsymbol W}_{\text{a}}}{{\boldsymbol Z}_r} + {{{\boldsymbol{b}}}_{\text{a}}}) $$ (5)
    $$ {{\boldsymbol Z}_{\text{C}}}_{{\text{NN}}} = {\text{softmax(}}{{\boldsymbol Z}_{\text{a}}}) $$ (6)

    式中:a表示全连接层,${{\boldsymbol Z}_{\text{a}}}$表示全连接层的输出,$f( \cdot )$代表激活函数,${{\boldsymbol W}_{\text{a}}}$代表全连接层的权值,${{b}_{\text{a}}}$表示全连接层的偏置。由此经过逐层的神经表达,获得最后的输出${{\boldsymbol Z}_{{\text{CNN}}}}$${{\boldsymbol Z}_{{\text{CNN}}}} \in {\mathbb{R}^{N \times C}}$,其中$N$是样本数,$C$是类别数。

    对于Transformer,首先对输入特征${\boldsymbol X}$作3种不同的线性变换得到${{\boldsymbol{Q}}}$(query),${{\boldsymbol{K}}}$(key),${{\boldsymbol{V}}}$(value):

    $$ {{\boldsymbol{Q}}} = {{{\boldsymbol{W}}}^{{\boldsymbol{Q}}}}{\boldsymbol {\boldsymbol{X}}} \in {\mathbb{R}^{m \times h}} $$ (7)
    $$ {{\boldsymbol{K}}} = {{{\boldsymbol{W}}}^{{\boldsymbol{K}}}}{\boldsymbol {\boldsymbol{X}}} \in {\mathbb{R}^{m \times h}} $$ (8)
    $$ {{\boldsymbol{V}}} = {{{\boldsymbol{W}}}^{{\boldsymbol{V}}}}{\boldsymbol X} \in {\mathbb{R}^{m \times g}} $$ (9)

    式中:${{{\boldsymbol{W}}}^{{\boldsymbol{Q}}}}$${{{\boldsymbol{W}}}^{{\boldsymbol{K}}}}$${{{\boldsymbol{W}}}^{{\boldsymbol{V}}}}$都是可学习的参数矩阵,$g$$h$是各自的隐藏层维度。随后进行注意力加权,得到加权后的特征:

    $$ {\text{Attention}}({{\boldsymbol{Q}}},{{\boldsymbol{K}}},{{\boldsymbol{V}}}) = {\mathrm{softmax}} \left(\frac{{{{\boldsymbol{Q}}}{{{\boldsymbol{K}}}^{\text{T}}}}}{{\sqrt m }}\right){V} $$ (10)

    将上述过程重复$G$次,然后把输出拼接起来,公式描述为

    $$ {T_i} = {\text{Attention}}({{\boldsymbol{XW}}}_i^{{\boldsymbol{Q}}},{{\boldsymbol{XW}}}_i^{{\boldsymbol{K}}},{{\boldsymbol{XW}}}_i^{{\boldsymbol{V}}}) $$ (11)
    $$ \text{MultiHead}(\boldsymbol{Q},\boldsymbol{K},\boldsymbol{V})=\text{Concat(}T_1,T_2,\cdots,T_G\text{)}\boldsymbol{W}^{\boldsymbol{\mathrm{O}}} $$ (12)

    式中:$ \boldsymbol{W}^{\boldsymbol{\mathrm{O}}} $是输出变换矩阵,${\boldsymbol W}_i^{{\boldsymbol{Q}}} \in {\mathbb{R}^{m \times h}}$${\boldsymbol W}_i^{{\boldsymbol{K}}} \in {\mathbb{R}^{m \times h}}$${\boldsymbol W}_i^{{\boldsymbol{V}}} \in {\mathbb{R}^{m \times g}}$。然后利用残差连接,防止梯度消失或梯度爆炸。最后利用softmax得到输出结果,具体公式为

    $$ {{\boldsymbol X}_{{\text{attention}}}} = {\boldsymbol X} + {{\boldsymbol X}_{{\text{attention}}}} $$ (13)
    $$ {{\boldsymbol Z}_{{\text{Tr}}}} = \sigma ({{{\boldsymbol{W}}}^1}({{{\boldsymbol{W}}}^0}{{\boldsymbol X}_{{\text{attention}}}} + {{{\boldsymbol{b}}}^0}) + {{{\boldsymbol{b}}}^1}) $$ (14)

    式中:${{\boldsymbol Z}_{{\text{Tr}}}}$表示Transformer的输出,${{{\boldsymbol{W}}}^0}$${{{\boldsymbol{W}}}^1}$是参数矩阵,${{{\boldsymbol{b}}}^0}$${{{\boldsymbol{b}}}^1}$是偏置参数,$\sigma ( \cdot )$是softmax函数。

    2.2.2   学生模型

    TSK模糊逻辑系统具有模型小、运行时间快和可解释性较强等特点[35],被广泛运用于处理模糊问题,因此本研究选择一阶TSK模糊逻辑系统作为学生模型。

    对于输入的特征${\boldsymbol X}$,IF-THEN规则中的${f^k}({\boldsymbol X})$可以表示为

    $$ \begin{gathered} {f^k}({\boldsymbol X}) = P_0^k + x_1^kP_1^k + x_2^kP_2^k + \cdots + x_m^kP_m^k, \\ k = 1,2, \cdots ,K \\ \end{gathered} $$ (15)

    式中:$P_i^k$($i = 1, 2, \cdots ,m$)是第$k$条模糊规则的后件参数,$K$是模糊系统中模糊规则的总数。第$k$条模糊规则将输入向量${\boldsymbol X}$映射到输出$ f({\boldsymbol X}) $可以定义为

    $$ f({\boldsymbol X}) = \sum\limits_{k = 1}^K {\frac{{{\mu ^k}({\boldsymbol X})}}{{\displaystyle\sum\limits_{k' = 1}^K {{\mu ^{k'}}({\boldsymbol X})} }}} {f^k}({\boldsymbol X}) = \displaystyle\sum\limits_{k = 1}^K {{{\tilde \mu }^k}({\boldsymbol X})} {f^k}({\boldsymbol X}) $$ (16)

    式中:${\mu ^k}({\boldsymbol X})$是第$k$条模糊规则的模糊隶属程度,规范化后得到${\tilde \mu ^k}({\boldsymbol X})$

    $$ {\mu ^k}({\boldsymbol X}) = \prod\limits_{i = 1}^b {{\mu _{A_i^k}}} ({x_i}) $$ (17)

    式中:${\mu _{A_i^k}}({x_i})$${x_i}$在模糊集$A_i^k$上的隶属程度,一般使用高斯隶属度函数来计算模糊隶属度程度:

    $$ {\mu _{A_i^k}}({x_i}) = {\mathrm{exp}}\left( {\frac{{ - {{({x_i} - v_i^k)}^2}}}{{2\delta _i^k}}} \right) $$ (18)

    式中:$\delta _i^k$是核宽;$v_i^k$是中心参数,是每个模糊规则的中心。$v_i^k$$\delta _i^k$被称为前件参数,$v_i^k$$\left\{ {0,0.25,0.5,0.75,1} \right\}$中随机选择,可以被自然语言解释为{非常低,低,中,高,非常高},这也保证了前件的可解释性。因此,学生模型的输出$ {{\boldsymbol Z}_{\text{s}}} $可以线性表示为

    $$ {{\boldsymbol Z}_{\text{s}}} = f({\boldsymbol X}) = {{\boldsymbol{P}}}_{\text{d}}^{\text{T}}{{\boldsymbol x}_{\text{d}}} $$ (19)

    式中:${{{\boldsymbol{P}}}_{\text{d}}}$是模糊规则的后件参数,相关的参数计算公式为

    $$ {{\boldsymbol x}_{\text{d}}} = {\left[ {{{({{{\tilde {\boldsymbol{x}}}}^1})}^{\text{T}}},{{({{{\tilde {\boldsymbol{x}}}}^2})}^{\text{T}}}, \cdots ,{{({{{\tilde {\boldsymbol{x}}}}^K})}^{\text{T}}}} \right]^{\text{T}}} \in {\mathbb{R}^{K(m + 1)}} $$ (20)
    $$ {{\tilde {\boldsymbol{x}}}^K} = {\tilde \mu ^k}({\boldsymbol X}){{\boldsymbol X}_{\mathrm{e}}} \in {\mathbb{R}^{K(m + 1)}} $$ (21)
    $$ {{\boldsymbol X}_{\mathrm{e}}} = {(1,{{\boldsymbol X}^{\mathrm{T}}})^{\mathrm{T}}} \in {\mathbb{R}^{K(m + 1)}} $$ (22)
    $$ {{{\boldsymbol{P}}}_{\text{d}}} = {[{({{{\boldsymbol{P}}}^1})^{\text{T}}},{({{{\boldsymbol{P}}}^2})^{\text{T}}}, \cdots ,{({{{\boldsymbol{P}}}^K})^{\text{T}}}]^{\text{T}}} \in {\mathbb{R}^{K(m + 1)}} $$ (23)
    $$ {{{\boldsymbol{P}}}^k} = {(p_0^k,p_1^k, \cdots ,p_m^k)^{\text{T}}} \in {\mathbb{R}^{K(m + 1)}} $$ (24)

    对于学生模型的后件参数,本文将用梯度下降算法进行更新,相关公式为

    $$ H=-\sum\limits_{i=1}^N\sum\limits_{t=1}^CY_{i,t}\log(\boldsymbol{Z}_{{\mathrm{s}}_{i,t}}) $$ (25)
    $$ {{{\boldsymbol{P}}}_{\text{d}}}(q + 1) = {{{\boldsymbol{P}}}_{\text{d}}}(q) - \eta \frac{{\partial H}}{{\partial {{{\boldsymbol{P}}}_{\text{d}}}(q)}} $$ (26)

    式中:$H$是交叉熵损失,$ \eta $是给定学习率。

    在多教师知识蒸馏中,每个教师都会有一个输出,整合每个教师的输出就会得到一个新的输出,此时就会涉及权重分配的问题。以往的多教师模型一般是对多个教师的输出取平均,或是类似于设置固定参数值的无标签策略[9,11]。但这往往是不合理的,不同的教师对于不同的数据集会有不一样的效果,因此,本文设计了一种能自适应分配教师模型输出权重的方法,让不同的教师模型根据不同的应用场景来自适应地分配权重。

    在现实中,准确率更高的教师模型往往更被信任,更被认为“能教出好的学生”。因此,本文以此设计自适应权重分配器,计算每个教师模型的输出与真实标签的交叉熵损失,损失更小的被认为准确率更高,其对应的教师模型则被赋予更高的权重。以本文中3个教师模型为例,对于3个教师的输出${{\boldsymbol Z}_{{\text{Total}}}} = \left[ {{{\boldsymbol Z}_{{\text{GCN}}}},{{\boldsymbol Z}_{{\text{CNN}}}},{{\boldsymbol Z}_{{\text{Tr}}}}} \right]$,分配权重的具体公式为

    $$ {L}_t^q = - \sum\limits_{c = 1}^C {{Y^c}} \log ({\boldsymbol Z}_{{t_q}}^c) $$ (27)
    $$ {w}_t^q = 1 - \frac{{\exp ({L}_t^q)}}{{\displaystyle\sum\limits_j {\exp ({L}_t^j)} }} $$ (28)

    式中:${t_q}$表示第$ q $个教师模型,${L}_t^q$表示第$q$个教师模型与真实标签的交叉熵损失,$C$是类别数,$Y$是真实标签,${w}_t^q$表示第$q$个教师模型对应的权重。从公式可以看出,更高的损失对应着更低的权重。由此,经过自适应权重分配器整合后的教师模型总输出${{\boldsymbol Z}_{{\text{Teacher}}}}$可以表示为

    $$ {{\boldsymbol Z}_{{\text{Teacher}}}} = \sum\limits_{q = 1}^Q {{w}_t^q} {{\boldsymbol Z}_{{t_q}}} \in {\mathbb{R}^{N \times C}} $$ (29)

    知识蒸馏是一种利用大模型提升小模型性能的方式,它能在保持小模型运行速度与可解释性的同时,提高小模型的泛化性能。传统的单教师模型在教师模型表现不佳的情况下,会影响整体的蒸馏效果,从而影响模型的整体性能。本文采用了3个深度学习网络:GCN、CNN、Transformer来作为教师模型。

    多教师知识蒸馏与单教师知识蒸馏相同点在于,在将多个教师网络的输出整合成一个输出后,利用带有温度参数$\tau $的softmax函数将教师与学生的输出转化为软标签${{\boldsymbol{\beta}} } = \left[ {{\beta _1},{\beta _2}, \cdots ,{\beta _i}, \cdots ,{\beta _C}} \right] \in {\mathbb{R}^{1 \times C}}$,教师与学生的软标签都可以用公式算得:

    $$ {\beta _i} = \frac{{\exp ({{\boldsymbol Z}_i}/\tau )}}{{\displaystyle\sum\limits_{j = 1}^C {\exp \left( {{{\boldsymbol Z}_j}/\tau } \right)} }} $$ (30)

    通过计算KL(Kullback-Leibler divergence)散度来比较两者的差异,即蒸馏损失${L_{{\text{kd}}}}$。再将学生模型的输出与真实标签作交叉熵,计算出硬损失${L_{{\text{CE}}}}$。最后2个损失加权,就得到了模型的总损失函数${L_{{\text{Total}}}}$,具体公式为

    $$ L_{\text{kd}}=\mathrm{KL}(\boldsymbol{\beta}^{\text{t}}||\boldsymbol{\beta}^{\text{s}})=\sum\limits_{c=1}^C\beta_c^{\text{t}}\log\left(\frac{\beta_c^{\text{t}}}{\beta_c^{\text{s}}}\right) $$ (31)
    $$ {L_{{\text{CE}}}} = - \sum\limits_{c = 1}^C {{Y^c}} \log (Z_{\text{s}}^c) $$ (32)
    $$ {L_{{\text{Total}}}} = \alpha {L_{{\text{kd}}}} + (1 - \alpha ){L_{{\text{CE}}}} $$ (33)

    式中:$C$是类别数,$ ^{ }Z^c $表示第$ c $类的概率输出,${\text{t}}$代表整合后的教师,${\text{s}}$代表学生。

    TSK-MTAKD算法包括教师模型和学生模型的构建、教师模型输出的整合以及知识蒸馏,具体流程见算法1~2。

    算法1 构建教师模型和学生模型

    输入 数据集${\boldsymbol X}{\text{ = (}}{{\boldsymbol x}_1},{{\boldsymbol x}_2}, \cdots ,{{\boldsymbol x}_i}, \cdots ,{{\boldsymbol x}_N}{{\text{)}}^{\text{T}}} \in {\mathbb{R}^{N \times m}}$;真实标签$ {{\boldsymbol{Y}}} = {({y_1},{y_2}, \cdots ,{y_i}, \cdots ,{y_N})^{\text{T}}} \in {\mathbb{R}^{N \times 1}} $;模糊规则数$K$;最大迭代次数$\theta $;阈值参数$\xi $;学习率$\eta $

    输出 3个教师模型的输出和学生模型的输出。

    1)以随机的方式从由{0,0.25,0.5,0.75,1}构成的固定模糊划分中选择高斯函数的中心$ v_i^k $,设置核宽$\delta _i^k$为正值,利用式(15)~(17)计算得归一化的模糊隶属度;

    2)利用式(19)~(23)计算学生模型的前件参数矩阵;

    3)利用梯度下降算法计算学生模型的后件参数:

    4)初始化后件参数${{{\boldsymbol{P}}}_{\text{d}}}$并设定$q = 1$

    Repeat

    利用式(24)~(25)计算${{{\boldsymbol{P}}}_{\text{d}}}(q + 1)$

    $$ q = q + 1\text{;} $$

    Until $H(q) - H(q - 1) \leqslant \xi \;{\mathrm{or}} \; q \geqslant \theta $

    5) 利用式(2)计算教师模型GCN的输出${{\boldsymbol Z}_{\text{GCN}}}$

    6)利用式(3)~(5)计算教师模型CNN的输出${{\boldsymbol Z}_{{\text{CNN}}}}$

    7)利用式(6)~(13)计算教师模型Transformer的输出${{\boldsymbol Z}_{{\text{Tr}}}}$

    8)计算得到学生模型的概率输出$ \boldsymbol{Z}_{\text{s}}=\boldsymbol{P}_{\text{d}}^{\mathrm{T}}\boldsymbol{x}_{\text{d}} $

    算法2 基于多教师自适应知识蒸馏的TSK模糊分类器(TSK-MTAKD)

    输入 数据集${\boldsymbol X}{\text{ = (}}{{\boldsymbol x}_1},{{\boldsymbol x}_2}, \cdots ,{{\boldsymbol x}_i}, \cdots ,{{\boldsymbol x}_N}{{\text{)}}^{\text{T}}} \in {\mathbb{R}^{N \times m}}$;真实标签${{\boldsymbol{Y}}} = {({y_1},{y_2}, \cdots ,{y_i}, \cdots ,{y_N})^{\text{T}}} \in {\mathbb{R}^{N \times 1}}$;3个教师模型的输出${{\boldsymbol Z}_{\text{GCN}}} \in {\mathbb{R}^{N \times C}}$${{\boldsymbol Z}_{{\text{CNN}}}} \in {\mathbb{R}^{N \times C}}$${{\boldsymbol Z}_{{\text{Tr}}}} \in {\mathbb{R}^{N \times C}}$;学生模型的输出$ {{\boldsymbol Z}_{\text{s}}} \in {\mathbb{R}^{N \times C}} $;最大迭代次数$\varepsilon $;阈值参数$\xi $;学习率$\eta $;温度参数$\tau $;蒸馏参数$ \alpha $

    输出 TSK-MTAKD的输出。

    1)利用式(26)~(28)计算各教师模型与真实标签的交叉熵,并以此分配各自所占的权重,求出最终的教师模型总输出${{\boldsymbol Z}_{{\text{Teacher}}}} \in {\mathbb{R}^{N \times C}}$

    2)通过式(29)计算得到教师模型总输出和学生模型输出的软标签${{{\boldsymbol{\beta}} }^{\text{t}}}$${{{\boldsymbol{\beta}} }^{\text{s}}}$

    3)利用梯度下降算法更新TSK-MTAKD的后件参数:

    4)初始化后件参数${{{\boldsymbol{P}}}_{\text{d}}}$并设定$q = 1$

    Repeat

    $$ {{{\boldsymbol{P}}}_{\text{d}}}(q + 1) = {{{\boldsymbol{P}}}_{\text{d}}}(q) - \eta \frac{{\partial {L_{{\text{Total}}}}}}{{\partial {{{\boldsymbol{P}}}_{\text{d}}}(q)}}\text{;} $$
    $$ q = q + 1\text{;} $$

    Until ${L_{{\text{Total}}}}(q) - {L_{{\text{Total}}}}(q - 1) \leqslant \xi \;{\mathrm{or}} \; q \geqslant \varepsilon $

    5)计算TSK-MTAKD的输出。

    TSK-MTAKD的时间复杂度主要由其学生模型决定,包括:建立中心矩阵的时间复杂度为$O(5mK)$,建立宽度矩阵的时间复杂度为$O(mK)$,生成前件参数矩阵的时间复杂度为$O(5N{m^3}K)$,生成后件参数矩阵的时间复杂度为$O(\varepsilon NmKC)$。其中,$\varepsilon $是最高迭代次数,$N$是样本数,$m$是特征数,$K$是模糊规则数,$C$是类别数,因此TSK-MTAKD的总时间复杂度为$ O(5mK + mK + 5N{m^3}K + \varepsilon NmKC) \approx O(5N{m^3}K + \varepsilon NmKC) $

    本文选择使用4个模糊分类器和4个模糊知识蒸馏模型与TSK-MTAKD进行对比实验,本文实验运行的硬件环境为:Intel(R) Core(TM) i9-12900H 2.5 GHz搭载 16GB RAM与 Microsoft Windows 11系统,编程环境为:Python 3.7.16配备 Torch 1.8.1库。

    由于本文主要应用于分类任务,因此本节的实验从UCI数据库中随机选择了13个不同规模不同场景的分类数据集,本实验对数据集采用归一化处理,并将分类特征转化为数值特征,数据集特征数与样本数具体介绍如表1所示。

    表  1  数据集简介
    Table  1  Introduction to the dataset
    数据集特征数样本数
    Iris(IRI)4150
    Wine(WIN)13178
    Sonar(SON)60208
    Seeds(SEE)7210
    Ionosphere(ION)32351
    Vote(VOT)16435
    Wisconsin(WIS)9683
    QSAR-Biodegradation(QSA)411 055
    Cardiotocography(CAR)212 126
    Titanic(TIT)32 201
    Segmentation(SEG)182 310
    Brainweb(BRA)320 000
    Adult(ADU)1448 841

    本文的TSK-MTAKD是从3个教师模型中提取隐藏知识的新型TSK模糊蒸馏分类器,因此,为评价此模型的性能,本文选择将$n$阶TSK模糊分类器($n = 1,2$)作为对比模型,本文将两种利用不同方法求解后件参数的TSK模糊分类器区分开来,其中,${\text{TSK}}_{{\text{v}}1}^n$($n$为阶次,$n = 1,2$)的后件参数使用最小学习机求解,${\text{TSK}}_{{\text{v}}2}^n$($n$为阶次,$n = 1,2$)的后件参数使用梯度下降法进行更新。同时,本文针对多教师知识蒸馏模型,将3个单教师知识蒸馏模型加入到对比模型中,在准确率和加权F1分数上与本文的TSK-MTAKD进行对比。其中,GKD、CKD、TrKD的教师模型分别采用GCN、CNN、Transformer,而这3个单教师模型的学生模型都选择使用TSK模糊逻辑系统,以此比较各自对学生模型的提升效果。除此以外,本文设计TSK-MTKD模型作为对比模型,TSK-MTKD采用与TSK-MTAKD相同的教师模型网络,但采用取平均的权重分配策略。对比模型的具体信息如表2所示。

    表  2  对比模型简介
    Table  2  Introduction to comparative model
    模糊分类器
    名称 前件 后件 阶次
    ${\text{TSK}}_{{\text{v1}}}^1$等间距划分最小学习机1
    ${\text{TSK}}_{{\text{v1}}}^2$2
    ${\text{TSK}}_{{\text{v2}}}^1$梯度下降1
    ${\text{TSK}}_{{\text{v2}}}^2$2
    知识蒸馏模型
    名称教师模型学生模型
    GKDGCNTSK
    CKDCNNTSK
    TrKDTransformerTSK
    TSK-MTKD多教师TSK

    本文采用五折交叉在选取的数据集上验证所有模型性能,对于模型所有可调参数采用网格搜索来选择。其中,模糊规则数$ K $的寻优范围为$\{ 1,2, \cdots ,20\} $;温度参数$\tau $的寻优范围为$\{ 1,5,10,20,100\} $;蒸馏参数$\alpha $的寻优范围为$\{ 0,0.25,0.50,0.75,1\} $;最大迭代次数$\theta $$\varepsilon $都设置为30;阈值参数$\xi $设置为${10^{ - 5}}$;学习率$\eta $设置为0.01;其余参数设置为默认值[36]

    本文选择2个常用的性能指标来评判所有模型的分类性能,分别是准确率(accuracy, ACC)和加权F1分数(weighted F1 score, W-F)。对于每个数据集的最佳结果,本文将用粗体进行标记,“—” 表示所采用的方法不能在3 h内计算出其结果。

    表3给出了TSK-MTAKD与其他8个模糊分类器的性能对比结果,针对这个表格,本文得出以下结论。

    表  3  所有模型在UCI数据集上的平均准确率和平均加权F1分数对比
    Table  3  Comparison of average accuracy and average weighted F1 score of all models on UCI datasets
    数据集 指标 IRI WIN SEE TIT ION WIS QSA SON SEG VOT CAR BRA ADU
    ${\text{TSK}}_{{\text{v}}1}^1$ ACC 86.33 88.78 92.41 78.99 85.90 96.85 86.63 78.57 99.41 94.13 87.72 95.76 84.06
    W-F 86.43 88.84 92.42 78.96 85.11 96.82 86.56 78.43 99.40 94.18 87.76 95.75 83.92
    ${\text{TSK}}_{{\text{v}}1}^2$ ACC 87.00 84.29 92.95 79.11 84.05 96.92 80.88 78.82 99.43 92.64 88.61 95.77 84.63
    W-F 87.11 84.31 92.99 79.02 83.43 96.86 80.82 77.80 99.42 92.66 88.87 95.79 84.50
    ${\text{TSK}}_{{\text{v}}2}^1$ ACC 96.66 97.83 92.79 78.00 92.58 96.92 87.48 84.99 99.58 94.59 90.92 95.44 84.29
    W-F 96.72 97.85 92.84 77.64 91.72 96.64 86.93 84.63 99.43 94.29 91.04 95.45 84.26
    ${\text{TSK}}_{{\text{v}}2}^2$ ACC 96.66 98.88 92.42 78.25 91.44 96.99 87.06 83.65 99.61 92.06 90.79 95.55
    W-F 96.67 98.84 92.39 78.20 90.43 96.69 86.39 83.20 99.56 91.58 90.45 95.45
    GKD ACC 97.22 98.32 92.86 78.55 92.77 97.07 88.23 85.03 99.60 94.60 91.11 95.57 84.36
    W-F 97.38 98.33 92.90 78.45 92.01 96.76 88.33 84.86 99.57 94.44 91.06 95.47 84.35
    CKD ACC 96.98 98.85 92.85 78.55 92.63 97.08 88.26 85.01 99.61 94.62 91.26 95.52 84.37
    W-F 97.12 98.88 92.86 78.24 92.24 96.88 88.25 84.72 99.60 94.32 91.08 95.46 84.38
    TrKD ACC 97.13 98.33 92.80 78.46 92.70 97.08 88.22 85.01 99.61 94.67 91.17 95.52 84.33
    W-F 97.41 98.86 92.89 78.26 92.36 96.86 88.16 84.88 99.59 94.35 91.12 95.45 84.31
    TSK-MTKD ACC 97.25 98.87 92.97 78.51 92.86 97.12 88.32 85.24 99.61 94.77 91.28 95.57 84.40
    W-F 97.42 98.88 92.99 78.41 92.44 96.98 88.36 84.92 99.58 94.56 91.12 95.47 84.38
    TSK-MTAKD ACC 97.43 98.99 93.74 78.76 93.26 97.42 88.48 85.82 99.63 95.16 91.36 95.59 84.65
    W-F 97.45 98.92 93.77 78.46 92.59 97.32 88.46 85.60 99.61 94.92 91.20 95.49 84.41
    注:“—”表示所采用的方法不能在3 h内计算出其结果,加粗表示本列最优结果。

    1)在准确率和加权F1分数方面,TSK-MTAKD在绝大多数数据集上都取得了最好的性能表现,特别是对于低阶TSK与高阶TSK,TSK-MTAKD都有显著的性能提升,本文分析这是由于教师模型提取了隐藏知识传递给学生模型,从而提升了模型的整体性能。

    2)TSK-MTKD与3个单教师的蒸馏模型相比,都具有一定的提升,本文分析这是由于多教师的蒸馏模型相对于单教师蒸馏模型而言,能从多个教师模型中提取到更多的隐藏知识,从而帮助学生模型提高了分类性能。

    3)TSK-MTAKD相较于使用平均分配策略的TSK-MTKD模型而言,有更优异的性能表现,本文认为,这是由于TSK-MTAKD的自适应权重分配器能主动分配权重,提取到3个教师中的隐藏知识,整合成最利于学生的隐藏知识,提高隐藏知识的利用率,从而稳定地提升模型性能。

    表4~5给出了TSK-MTAKD和其余4个蒸馏模型与其相应的学生模型在准确率和加权F1分数上的实验结果对比。可以看出,TSK-MTAKD展现出最高的性能提升,在准确率方面,TSK-MTAKD在13个数据集的平均提升幅度比单教师蒸馏模型多了约0.35百分点,比TSK-MTKD多了约0.25百分点;在加权F1分数方面,TSK-MTAKD在13个数据集的平均提升幅度比单教师蒸馏模型多了约0.33百分点,比TSK-MTKD多了约0.21百分点。由此可以得出,TSK-MTAKD通过从多个教师提取隐藏知识并自适应地分配权重传递给学生模型,比单教师蒸馏模型更加有效地提高了TSK模糊分类器的性能;此外,利用本文设计的自适应权重分配器能较好地整合教师模型的隐藏知识,从而提高模型的鲁棒性。

    表  4  GKD、CKD、TrKD、TSK-MTKD和TSK-MTAKD与相应学生模型在UCI数据集上的准确率以及提升幅度对比
    Table  4  Comparison of accuracy and improvement of GKD, CKD, TrKD, TSK-MTKD, and TSK-MTAKD with corresponding student models on UCI datasets %
    数据集GKDCKDTrKDTSK-TAKDTSK-MTAKD
    蒸馏学生提升蒸馏学生提升蒸馏学生提升蒸馏学生提升蒸馏学生提升
    IRI97.2296.320.9096.9896.350.6397.1396.260.8797.2596.350.9097.4396.331.10
    WIN98.3297.770.5598.8597.801.0598.3397.750.5898.8797.781.0998.9997.721.27
    SEE92.8691.711.1592.8591.701.1592.8091.671.1392.9791.721.2593.7491.771.97
    TIT78.5577.660.8978.5577.770.7878.4677.680.7878.5177.670.8478.7677.810.95
    ION92.7792.450.3292.6392.280.3592.7092.370.3392.8692.440.4293.2692.480.78
    WIS97.0796.870.2097.0896.870.2197.0896.840.2497.1296.850.2797.4296.860.56
    QSA88.2387.350.8888.2687.370.8988.2287.310.9188.3287.360.9688.4887.331.15
    SON85.0384.610.4285.0184.710.3085.0184.680.3385.2484.750.4985.8284.771.05
    SEG99.6099.460.1499.6199.460.1599.6199.480.1399.6199.470.1499.6399.470.16
    VOT94.6094.120.4894.6294.080.5494.6794.150.5294.7794.190.5895.1694.210.95
    CAR91.1190.810.3091.2690.860.4091.1790.850.3291.2890.780.5091.3690.740.62
    BRA95.5795.430.1495.5295.400.1295.5295.380.1495.5795.430.1495.5995.420.17
    ADU84.3684.210.1584.3784.250.1284.3384.240.0984.4084.250.1584.6584.280.37
    平均91.9491.440.5091.9691.450.5191.9291.430.4992.0691.460.6092.3391.480.85
    表  5  GKD、CKD、TrKD、TSK-MTKD和TSK-MTAKD与相应学生模型在UCI数据集上的加权F1分数以及提升幅度对比
    Table  5  Comparison of weighted F1 scores and improvement of GKD, CKD, TrKD, TSK-MTKD, and TSK-MTAKD with corresponding student models on UCI datasets %
    数据集GKDCKDTrKDTSK-MTKDTSK-MTAKD
    蒸馏学生提升蒸馏学生提升蒸馏学生提升蒸馏学生提升蒸馏学生提升
    IRI97.3896.450.9397.1296.580.5497.4196.570.8497.4296.500.9297.4596.480.97
    WIN98.3397.580.4598.8897.841.0498.8697.781.0898.8897.771.1198.9297.721.20
    SEE92.9091.811.0992.8691.771.0992.8991.681.2192.9991.721.2793.7791.811.96
    TIT78.4577.331.1278.2477.320.9278.2677.380.8878.4177.351.0678.4677.271.19
    ION92.0191.520.4992.2491.670.5792.3691.650.7192.4491.660.7892.5991.680.91
    WIS96.7696.580.1896.8896.620.2696.8696.600.2696.9896.610.3797.3296.610.71
    QSA88.3386.901.4388.2586.881.3788.1686.771.3988.3686.851.5188.4686.811.65
    SON84.8684.240.6284.7284.520.2084.8884.560.3284.9284.310.6185.6084.511.09
    SEG99.5799.380.1999.6099.390.2199.5999.400.1999.5899.390.1999.6199.380.23
    VOT94.4493.720.7294.3293.710.6194.3593.770.5894.5693.760.8094.9293.901.02
    CAR91.0690.740.3291.0890.590.4991.1290.860.2691.1290.730.3991.2090.530.67
    BRA95.4795.340.1395.4695.320.1495.4595.330.1295.4795.330.1495.4995.310.18
    ADU84.3584.120.2384.3884.150.2384.3184.160.1584.3884.150.2384.4184.150.26
    平均91.8291.210.6191.8491.250.5991.8891.270.6191.9691.240.7292.1791.240.93

    图3~4给出了TSK-MTAKD和其余4个蒸馏模型在准确率和加权F1分数上提升的对比,可以发现,在面对同一个数据集时,3个单教师的蒸馏模型体现出不一样的性能,如在IRI数据集上,GCN作为教师模型的模糊蒸馏分类器能有较大的性能提升,CNN作为教师模型的模糊蒸馏分类器性能提升较小;而在WIN这一数据集上的效果则恰恰相反;在WIS这一数据集上,3个单教师模糊蒸馏分类器的提升效果都不太明显,但采用多教师知识蒸馏的TSK-MTKD和TSK-MTAKD对几乎每个数据集都有显著的提升效果。针对这一结果,本文分析这是由于教师模型对于不同类别的数据集会有性能的差异,从而影响蒸馏效果,而多教师知识蒸馏能从不同的教师模型中学到知识,从而减小数据集类型对模型的影响。除此以外本文发现,使用平均分配权重策略的TSK-MTKD在部分数据集上对学生模型的提升并不是很明显,如在IRI、BRA等数据集上,TSK-MTKD对学生模型的提升效果几乎等价于某个单教师模型,而在TIT这一数据集上TSK-MTKD甚至不如其中一个单教师模型,而使用自适应权重分配器的TSK-MTAKD却能始终拥有较好的性能提升效果。这是由于在面对不同效果的教师模型时,平均分配策略使性能较好的教师模型无法拥有更多的“话语权”,从而减少了有效知识的传递,而自适应权重分配器能根据教师模型的表现情况自适应分配权重,进而提高模型的性能。

    图  3  GKD、CKD、TrKD、TSK-MTKD和TSK-MTAKD在准确率提升幅度上的对比
    Fig.  3  Comparison of GKD, CKD, TrKD, TSK-MTKD, and TSK-MTAKD in terms of accuracy improvement
    下载: 全尺寸图片
    图  4  GKD、CKD、TrKD、TSK-MTKD和TSK-MTAKD在加权F1分数提升幅度上的对比
    Fig.  4  Comparison of GKD, CKD, TrKD, TSK-MTKD, and TSK-MTAKD in terms of weighted F1 score improvement
    下载: 全尺寸图片

    除此以外,为观察本文提出的TSK-MTAKD与其他几个对比算法之间是否存在显著性差异,本文引入Frideman Ranking测试。由于${\text{TSK}}_{{\mathrm{v}}2}^2$在ADU这一数据集上运行时间超过3 h,因此本文对除ADU数据集外的12个数据集进行统计分析,置信度设置为0.05。图5给出了排序结果, TSK-MTAKD获得了最佳等级,这说明TSK-MTAKD与其他8个对比算法之间具有显著差异。

    图  5  各模型Ranking值
    Fig.  5  Ranking values of each model
    下载: 全尺寸图片

    本文主要将多教师知识蒸馏和TSK模糊分类器相结合,从而提升TSK模糊分类器的性能表现。本文提出了一种新型的TSK模糊蒸馏分类器,称为TSK-MTAKD,从多个教师模型中提取隐藏知识,通过自适应权重分配器将3个教师的隐藏知识进行整合,得到对应的软标签,从而传递给TSK模糊分类器,实现性能的提升。在13个UCI数据集上的实验证明了TSK-MTAKD的性能优势。

    除此以外,TSK-MTAKD还有更多的地方值得研究。首先,将深入研究此模型在癫痫检测和运动预测等领域的实际应用。其次,目前出现了许多新的蒸馏方式,除了本文的多教师蒸馏外,改进蒸馏方式,利用如自蒸馏、解耦蒸馏等可能可以获得更好的蒸馏效果,因此蒸馏方式改进也是后续值得研究的方向。

  • 图  1   知识蒸馏模型

    Fig.  1   Knowledge distillation model

    下载: 全尺寸图片

    图  2   TSK-MTAKD整体模型

    Fig.  2   Overall model of TSK-MTAKD

    下载: 全尺寸图片

    图  3   GKD、CKD、TrKD、TSK-MTKD和TSK-MTAKD在准确率提升幅度上的对比

    Fig.  3   Comparison of GKD, CKD, TrKD, TSK-MTKD, and TSK-MTAKD in terms of accuracy improvement

    下载: 全尺寸图片

    图  4   GKD、CKD、TrKD、TSK-MTKD和TSK-MTAKD在加权F1分数提升幅度上的对比

    Fig.  4   Comparison of GKD, CKD, TrKD, TSK-MTKD, and TSK-MTAKD in terms of weighted F1 score improvement

    下载: 全尺寸图片

    图  5   各模型Ranking值

    Fig.  5   Ranking values of each model

    下载: 全尺寸图片

    表  1   数据集简介

    Table  1   Introduction to the dataset

    数据集特征数样本数
    Iris(IRI)4150
    Wine(WIN)13178
    Sonar(SON)60208
    Seeds(SEE)7210
    Ionosphere(ION)32351
    Vote(VOT)16435
    Wisconsin(WIS)9683
    QSAR-Biodegradation(QSA)411 055
    Cardiotocography(CAR)212 126
    Titanic(TIT)32 201
    Segmentation(SEG)182 310
    Brainweb(BRA)320 000
    Adult(ADU)1448 841

    表  2   对比模型简介

    Table  2   Introduction to comparative model

    模糊分类器
    名称 前件 后件 阶次
    ${\text{TSK}}_{{\text{v1}}}^1$等间距划分最小学习机1
    ${\text{TSK}}_{{\text{v1}}}^2$2
    ${\text{TSK}}_{{\text{v2}}}^1$梯度下降1
    ${\text{TSK}}_{{\text{v2}}}^2$2
    知识蒸馏模型
    名称教师模型学生模型
    GKDGCNTSK
    CKDCNNTSK
    TrKDTransformerTSK
    TSK-MTKD多教师TSK

    表  3   所有模型在UCI数据集上的平均准确率和平均加权F1分数对比

    Table  3   Comparison of average accuracy and average weighted F1 score of all models on UCI datasets

    数据集 指标 IRI WIN SEE TIT ION WIS QSA SON SEG VOT CAR BRA ADU
    ${\text{TSK}}_{{\text{v}}1}^1$ ACC 86.33 88.78 92.41 78.99 85.90 96.85 86.63 78.57 99.41 94.13 87.72 95.76 84.06
    W-F 86.43 88.84 92.42 78.96 85.11 96.82 86.56 78.43 99.40 94.18 87.76 95.75 83.92
    ${\text{TSK}}_{{\text{v}}1}^2$ ACC 87.00 84.29 92.95 79.11 84.05 96.92 80.88 78.82 99.43 92.64 88.61 95.77 84.63
    W-F 87.11 84.31 92.99 79.02 83.43 96.86 80.82 77.80 99.42 92.66 88.87 95.79 84.50
    ${\text{TSK}}_{{\text{v}}2}^1$ ACC 96.66 97.83 92.79 78.00 92.58 96.92 87.48 84.99 99.58 94.59 90.92 95.44 84.29
    W-F 96.72 97.85 92.84 77.64 91.72 96.64 86.93 84.63 99.43 94.29 91.04 95.45 84.26
    ${\text{TSK}}_{{\text{v}}2}^2$ ACC 96.66 98.88 92.42 78.25 91.44 96.99 87.06 83.65 99.61 92.06 90.79 95.55
    W-F 96.67 98.84 92.39 78.20 90.43 96.69 86.39 83.20 99.56 91.58 90.45 95.45
    GKD ACC 97.22 98.32 92.86 78.55 92.77 97.07 88.23 85.03 99.60 94.60 91.11 95.57 84.36
    W-F 97.38 98.33 92.90 78.45 92.01 96.76 88.33 84.86 99.57 94.44 91.06 95.47 84.35
    CKD ACC 96.98 98.85 92.85 78.55 92.63 97.08 88.26 85.01 99.61 94.62 91.26 95.52 84.37
    W-F 97.12 98.88 92.86 78.24 92.24 96.88 88.25 84.72 99.60 94.32 91.08 95.46 84.38
    TrKD ACC 97.13 98.33 92.80 78.46 92.70 97.08 88.22 85.01 99.61 94.67 91.17 95.52 84.33
    W-F 97.41 98.86 92.89 78.26 92.36 96.86 88.16 84.88 99.59 94.35 91.12 95.45 84.31
    TSK-MTKD ACC 97.25 98.87 92.97 78.51 92.86 97.12 88.32 85.24 99.61 94.77 91.28 95.57 84.40
    W-F 97.42 98.88 92.99 78.41 92.44 96.98 88.36 84.92 99.58 94.56 91.12 95.47 84.38
    TSK-MTAKD ACC 97.43 98.99 93.74 78.76 93.26 97.42 88.48 85.82 99.63 95.16 91.36 95.59 84.65
    W-F 97.45 98.92 93.77 78.46 92.59 97.32 88.46 85.60 99.61 94.92 91.20 95.49 84.41
    注:“—”表示所采用的方法不能在3 h内计算出其结果,加粗表示本列最优结果。

    表  4   GKD、CKD、TrKD、TSK-MTKD和TSK-MTAKD与相应学生模型在UCI数据集上的准确率以及提升幅度对比

    Table  4   Comparison of accuracy and improvement of GKD, CKD, TrKD, TSK-MTKD, and TSK-MTAKD with corresponding student models on UCI datasets %

    数据集GKDCKDTrKDTSK-TAKDTSK-MTAKD
    蒸馏学生提升蒸馏学生提升蒸馏学生提升蒸馏学生提升蒸馏学生提升
    IRI97.2296.320.9096.9896.350.6397.1396.260.8797.2596.350.9097.4396.331.10
    WIN98.3297.770.5598.8597.801.0598.3397.750.5898.8797.781.0998.9997.721.27
    SEE92.8691.711.1592.8591.701.1592.8091.671.1392.9791.721.2593.7491.771.97
    TIT78.5577.660.8978.5577.770.7878.4677.680.7878.5177.670.8478.7677.810.95
    ION92.7792.450.3292.6392.280.3592.7092.370.3392.8692.440.4293.2692.480.78
    WIS97.0796.870.2097.0896.870.2197.0896.840.2497.1296.850.2797.4296.860.56
    QSA88.2387.350.8888.2687.370.8988.2287.310.9188.3287.360.9688.4887.331.15
    SON85.0384.610.4285.0184.710.3085.0184.680.3385.2484.750.4985.8284.771.05
    SEG99.6099.460.1499.6199.460.1599.6199.480.1399.6199.470.1499.6399.470.16
    VOT94.6094.120.4894.6294.080.5494.6794.150.5294.7794.190.5895.1694.210.95
    CAR91.1190.810.3091.2690.860.4091.1790.850.3291.2890.780.5091.3690.740.62
    BRA95.5795.430.1495.5295.400.1295.5295.380.1495.5795.430.1495.5995.420.17
    ADU84.3684.210.1584.3784.250.1284.3384.240.0984.4084.250.1584.6584.280.37
    平均91.9491.440.5091.9691.450.5191.9291.430.4992.0691.460.6092.3391.480.85

    表  5   GKD、CKD、TrKD、TSK-MTKD和TSK-MTAKD与相应学生模型在UCI数据集上的加权F1分数以及提升幅度对比

    Table  5   Comparison of weighted F1 scores and improvement of GKD, CKD, TrKD, TSK-MTKD, and TSK-MTAKD with corresponding student models on UCI datasets %

    数据集GKDCKDTrKDTSK-MTKDTSK-MTAKD
    蒸馏学生提升蒸馏学生提升蒸馏学生提升蒸馏学生提升蒸馏学生提升
    IRI97.3896.450.9397.1296.580.5497.4196.570.8497.4296.500.9297.4596.480.97
    WIN98.3397.580.4598.8897.841.0498.8697.781.0898.8897.771.1198.9297.721.20
    SEE92.9091.811.0992.8691.771.0992.8991.681.2192.9991.721.2793.7791.811.96
    TIT78.4577.331.1278.2477.320.9278.2677.380.8878.4177.351.0678.4677.271.19
    ION92.0191.520.4992.2491.670.5792.3691.650.7192.4491.660.7892.5991.680.91
    WIS96.7696.580.1896.8896.620.2696.8696.600.2696.9896.610.3797.3296.610.71
    QSA88.3386.901.4388.2586.881.3788.1686.771.3988.3686.851.5188.4686.811.65
    SON84.8684.240.6284.7284.520.2084.8884.560.3284.9284.310.6185.6084.511.09
    SEG99.5799.380.1999.6099.390.2199.5999.400.1999.5899.390.1999.6199.380.23
    VOT94.4493.720.7294.3293.710.6194.3593.770.5894.5693.760.8094.9293.901.02
    CAR91.0690.740.3291.0890.590.4991.1290.860.2691.1290.730.3991.2090.530.67
    BRA95.4795.340.1395.4695.320.1495.4595.330.1295.4795.330.1495.4995.310.18
    ADU84.3584.120.2384.3884.150.2384.3184.160.1584.3884.150.2384.4184.150.26
    平均91.8291.210.6191.8491.250.5991.8891.270.6191.9691.240.7292.1791.240.93
  • [1] 苏丽, 孙雨鑫, 苑守正. 基于深度学习的实例分割研究综述[J]. 智能系统学报, 2022, 17(1): 16−31. doi: 10.11992/tis.202109043

    SU Li, SUN Yuxin, YUAN Shouzheng. A survey of instance segmentation research based on deep learning[J]. CAAI transactions on intelligent systems, 2022, 17(1): 16−31. doi: 10.11992/tis.202109043
    [2] SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 1−9.
    [3] 赵壮壮, 王骏, 潘祥, 等. 任务间共享和特有结构分解的多任务TSK模糊系统建模[J]. 智能系统学报, 2021, 16(4): 622−629. doi: 10.11992/tis.202007009

    ZHAO Zhuangzhuang, WANG Jun, PAN Xiang, et al. Multi-task TSK fuzzy system modeling based on inter-task common and special structure decomposition[J]. CAAI transactions on intelligent systems, 2021, 16(4): 622−629. doi: 10.11992/tis.202007009
    [4] 黄震华, 杨顺志, 林威, 等. 知识蒸馏研究综述[J]. 计算机学报, 2022, 45(3): 624−653. doi: 10.11897/SP.J.1016.2022.00624

    HUANG Zhenhua, YANG Shunzhi, LIN Wei, et al. Knowledge distillation: a survey[J]. Chinese journal of computers, 2022, 45(3): 624−653. doi: 10.11897/SP.J.1016.2022.00624
    [5] JIANG Yunliang, WENG Jiangwei, ZHANG Xiongtao, et al. A CNN-based born-again TSK fuzzy classifier integrating soft label information and knowledge distillation[J]. IEEE transactions on fuzzy systems, 2023, 31(6): 1843−1854. doi: 10.1109/TFUZZ.2022.3215566
    [6] JÚNIOR J S S, MENDES J, SOUZA F, et al. Distilling complex knowledge into explainable T–S fuzzy systems[J]. IEEE transactions on fuzzy systems, 2025, 33(3): 1037−1048. doi: 10.1109/TFUZZ.2024.3506122
    [7] GU Xiangming, CHENG Xiang. Distilling a deep neural network into a Takagi-Sugeno-Kang fuzzy inference system[EB/OL]. (2020−10−10)[2024−10−22]. https://arxiv.org/abs/2010.04974v1.
    [8] ZHANG Xiongtao, YIN Zezong, JIANG Yunliang, et al. Fuzzy knowledge distillation from high-order TSK to low-order TSK[EB/OL]. (2023−02−16)[2024−10−22]. https://arxiv.org/abs/2302.08038v1.
    [9] ERDEM D, KUMBASAR T. Enhancing the learning of interval type-2 fuzzy classifiers with knowledge distillation[C]//2021 IEEE International Conference on Fuzzy Systems. Luxembourg: IEEE, 2021: 1−6.
    [10] YOU Shan, XU Chang, XU Chao, et al. Learning from multiple teacher networks[C]//Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2017: 1285−1294.
    [11] WU M C, CHIU C T, WU K H. Multi-teacher knowledge distillation for compressed video action recognition on deep neural networks[C]//2019 IEEE International Conference on Acoustics, Speech and Signal Processing. Brighton: IEEE, 2019: 2202−2206.
    [12] PAL N R, PAL K, KELLER J M, et al. A possibilistic fuzzy c-means clustering algorithm[J]. IEEE transactions on fuzzy systems, 2005, 13(4): 517−530. doi: 10.1109/TFUZZ.2004.840099
    [13] VENKATACHALAM K, REDDY V P, AMUDHAN M, et al. An implementation of K-means clustering for efficient image segmentation[C]//2021 10th IEEE International Conference on Communication Systems and Network Technologies. Bhopal: IEEE, 2021: 224−229.
    [14] ZHOU Ta, CHUNG F L, WANG Shitong. Deep TSK fuzzy classifier with stacked generalization and triplely concise interpretability guarantee for large data[J]. IEEE transactions on fuzzy systems, 2017, 25(5): 1207−1221. doi: 10.1109/TFUZZ.2016.2604003
    [15] ALBAWI S, ABED MOHAMMED T, AL-ZAWI S. Understanding of a convolutional neural network[C]//2017 International Conference on Engineering and Technology. Antalya: IEEE, 2017: 1−6.
    [16] QIN Bin, NOJIMA Y, ISHIBUCHI H, et al. Realizing deep high-order TSK fuzzy classifier by ensembling interpretable zero-order TSK fuzzy subclassifiers[J]. IEEE transactions on fuzzy systems, 2021, 29(11): 3441−3455. doi: 10.1109/TFUZZ.2020.3022574
    [17] XUE Guangdong, WANG Jian, ZHANG Bingjie, et al. Double groups of gates based Takagi-Sugeno-Kang (DG-TSK) fuzzy system for simultaneous feature selection and rule extraction[J]. Fuzzy sets and systems, 2023, 469: 108627. doi: 10.1016/j.fss.2023.108627
    [18] CUI Yuqi, XU Yifan, PENG Ruimin, et al. Layer normalization for TSK fuzzy system optimization in regression problems[J]. IEEE transactions on fuzzy systems, 2023, 31(1): 254−264. doi: 10.1109/TFUZZ.2022.3185464
    [19] 刘万军, 姜岚, 曲海成, 等. 融合CNN与Transformer的MRI脑肿瘤图像分割[J]. 智能系统学报, 2024, 19(4): 1007−1015. doi: 10.11992/tis.202301016

    LIU Wanjun, JIANG Lan, QU Haicheng, et al. MRI brain tumor image segmentation by fusing CNN and Transformer[J]. CAAI transactions on intelligent systems, 2024, 19(4): 1007−1015. doi: 10.11992/tis.202301016
    [20] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278−2324. doi: 10.1109/5.726791
    [21] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 770−778.
    [22] WANG Wei, LI Yutao, ZOU Ting, et al. A novel image classification approach via dense-MobileNet models[J]. Mobile information systems, 2020, 2020(1): 7602384.
    [23] TAN Mingxing, LE Q. Efficientnet: rethinking model scaling for convolutional neural networks[C]//International Conference on Machine Learning. California: PMLR, 2019: 6105−6114.
    [24] 赵文竹, 袁冠, 张艳梅, 等. 多视角融合的时空动态GCN城市交通流量预测[J]. 软件学报, 2024, 35(4): 1751−1773.

    ZHAO Wenzhu, YUAN Guan, ZHANG Yanmei, et al. Multi-view fused spatial-temporal dynamic GCN for urban traffic flow prediction[J]. Journal of software, 2024, 35(4): 1751−1773.
    [25] ZHAO Ling, SONG Yujiao, ZHANG Chao, et al. T-GCN: a temporal graph convolutional network for traffic prediction[J]. IEEE transactions on intelligent transportation systems, 2020, 21(9): 3848−3858. doi: 10.1109/TITS.2019.2935152
    [26] ABU-EL-HAIJA S, KAPOOR A, PEROZZI B, et al. N-GCN: multi-scale graph convolution for semi-supervised node classification[C]//Uncertainty in Artificial Intelligence. Tel Aviv: PMLR, 2020: 841−851.
    [27] SUBAKAN C, RAVANELLI M, CORNELL S, et al. Attention is all you need in speech separation[C]//2021 IEEE International Conference on Acoustics, Speech and Signal Processing. Toronto: IEEE, 2021: 21−25.
    [28] 任欢, 王旭光. 注意力机制综述[J]. 计算机应用, 2021, 41(S1): 1−6. doi: 10.11772/j.issn.1001-9081.2020101634

    REN Huan, WANG Xuguang. Review of attention mechanism[J]. Journal of computer applications, 2021, 41(S1): 1−6. doi: 10.11772/j.issn.1001-9081.2020101634
    [29] DEVLIN J, CHANG Mingwei, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[C]//Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Minneapolis: Association for Computational Linguistics, 2019: 4171−4186.
    [30] YANG Zhilin, DAI Zihang, YANG Yiming, et al. XLNet: generalized autoregressive pretraining for language understanding[C]//Proceedings of the 32nd Conference on Neural Information Processing Systems. Vancouver: NeurIPS, 2018: 5754−5764.
    [31] HAUPT C E, MARKS M. AI-generated medical advice-GPT and beyond[J]. JAMA, 2023, 329(16): 1349−1350. doi: 10.1001/jama.2023.5321
    [32] CUI Kaiwen, YU Yingchen, ZHAN Fangneng, et al. KD-DLGAN: data limited image generation via knowledge distillation[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver: IEEE, 2023: 3872−3882.
    [33] GUO Ziyao, YAN Haonan, LI Hui, et al. Class attention transfer based knowledge distillation[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver: IEEE, 2023: 11868−11877.
    [34] GOU Jianping, XIONG Xiangshuo, YU Baosheng, et al. Multi-target knowledge distillation via student self-reflection[J]. International journal of computer vision, 2023, 131(7): 1857−1874. doi: 10.1007/s11263-023-01792-z
    [35] ZHANG Pu, SHANG Changjing, SHEN Qiang. Fuzzy rule interpolation with $K$-neighbors for TSK models[J]. IEEE transactions on fuzzy systems, 2022, 30(10): 4031−4043. doi: 10.1109/TFUZZ.2021.3136359
    [36] TIAN Xiaobin, DENG Zhaohong, YING Wenhao, et al. Deep multi-view feature learning for EEG-based epileptic seizure detection[J]. IEEE transactions on neural systems and rehabilitation engineering, 2019, 27(10): 1962−1972. doi: 10.1109/TNSRE.2019.2940485
WeChat 点击查看大图
图(5)  /  表(5)
出版历程
  • 收稿日期:  2024-10-22
  • 网络出版日期:  2025-06-26

目录

    /

    返回文章
    返回