Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js

基于Transformer模型的自闭症功能磁共振图像分类

潘登 毕晓君

潘登, 毕晓君. 基于Transformer模型的自闭症功能磁共振图像分类 [J]. 智能系统学报, 2025, 20(2): 400-406. doi: 10.11992/tis.202402025
引用本文: 潘登, 毕晓君. 基于Transformer模型的自闭症功能磁共振图像分类 [J]. 智能系统学报, 2025, 20(2): 400-406. doi: 10.11992/tis.202402025
PAN Deng, BI Xiaojun. Classification of functional magnetic resonance images for autism based on Transformer model [J]. CAAI Transactions on Intelligent Systems, 2025, 20(2): 400-406. doi: 10.11992/tis.202402025
Citation: PAN Deng, BI Xiaojun. Classification of functional magnetic resonance images for autism based on Transformer model [J]. CAAI Transactions on Intelligent Systems, 2025, 20(2): 400-406. doi: 10.11992/tis.202402025

基于Transformer模型的自闭症功能磁共振图像分类

doi: 10.11992/tis.202402025
基金项目: 国家自然科学基金重点项目(62236011); 国家社科基金重大项目(20&ZD279).
详细信息
    作者简介:

    潘登,硕士研究生,主要研究方向为医学图像分类、深度学习。E-mail:984434942@qq.com;

    毕晓君,教授,博士生导师,主要研究方向为智能信息处理、数字图像处理、机器学习。主持国家和省部级科研项目10余项,获省部级科学技术一等奖1项,省部级科学技术二等奖6项,发表学术论文200余篇。E-mail:bixiaojun@hrbeu.edu.cn.

    通讯作者:

    毕晓君. E-mail:bixiaojun@hrbeu.edu.cn.

  • 中图分类号: TP391

Classification of functional magnetic resonance images for autism based on Transformer model

  • 摘要: 目前自闭症功能磁共振(functional magnetic resonance imaging, fMRI)图像分类模型在跨多个机构的数据集下分类精度较低,难以应用到自闭症的诊断工作中。为此,本文提出了一种基于Transformer的自闭症分类模型(autism spectrum disorder classification model based on Transformer, TransASD)。首先采用脑图谱模板提取fMRI数据中的时间序列输入Transformer模型,并引入一种重叠窗口注意力机制,能够更好地捕捉异构数据的局部与全局特征。其次,提出了一个跨窗口正则化方法作为额外的损失项,使模型可以更加准确地聚焦于重要的特征。本文使用该模型在公开的自闭症数据集ABIDE上进行实验,在10折交叉验证法下得到了71.44%的准确率,该模型对比其他先进算法模型取得了更好的分类效果。

     

    Abstract: Current classification models of functional magnetic resonance (fMRI) images for autism struggle with low classification accuracy across datasets from multiple institutions. Thus, they have difficulty assisting in the diagnosis of autism. This study proposes a Transformer-based autism classification model named TransASD to address this issue. This model utilizes brain mapping templates to extract time series from fMRI data and incorporates an overlapping window attention mechanism to better capture local and global features of heterogeneous data. A cross-window regularization method is also proposed as an additional loss term, which allows the model to focus more accurately on important features. In this study, we use the model to conduct experiments on the publicly available autism dataset ABIDE, under the ten-fold cross-validation method, the accuracy rate is 71.44%. Experimental results show that the model achieves state-of-the-art performance compared with other advanced algorithmic models.

     

  • 自闭症谱系障碍(autism spectrum disorder, ASD)是一种广泛的精神疾病,在青少年中发病率呈逐年递增的趋势。在发达国家,约有1.5%的儿童被诊断为ASD[1]。最近ASD患病率的增加给社会和ASD患者的家庭带来了一系列的压力。然而,ASD的诊断较为困难,基于症状的方法需要医生经过相应的培训和扎实的专业知识才能做出准确的诊断[2]。在评估过程中,个人观察和主观决定往往会误诊或过度诊断轻度病例[3]。目前迫切需要实施有效的计算机辅助诊断(computer aided diagnosis, CAD)技术,以协助医生进行有效的诊断。

    随着神经影像技术的发展,越来越多的神经影像技术用于检测脑功能的变化[4],其中自闭症功能磁共振(functional magnetic resonance imaging, fMRI)作为一种测量脑信号的非侵入性技术[5],可测量神经元活动引起的血流动力学变化,研究证据表明,fMRI信号在识别ASD方面显示出巨大的潜力[6]。近年来随着深度学习方法的提出,已经在基于fMRI数据的ASD分类任务上取得突破进展,例如El-Gazzar等[7]结合3D卷积神经网络(convolutional neural network, CNN)和长短期记忆(long short-term memory, LSTM)网络构成时空特征处理网络,在单机构和跨机构的数据集上实现了ASD分类;Sherkatghanad等[8]使用CNN网络在低参数量的轻量化模型下实现了较高精度的分类任务。郭磊等[9]使用4D卷积神经网络构建了一个四维分类模型,与过往3D卷积神经网络的方法相比,提取了与ASD相关的时间空间特征,实现了更好的分类效果。上述方法虽然较传统算法取得较大进展,但由于都是基于CNN模型,较专注于局部特征的提取而全局特征提取能力较弱,难以捕捉跨机构的异构数据之间的联系特征,而目前唯一公开的自闭症数据集由多个机构共同建立,不同机构之间数据存在异构性,因此上述方法在特征提取方面还有进一步提升的空间。最近提出的Transformer[10]模型兼备局部与全局的特征提取能力,能有效地提取跨机构异构数据的特征,然而现已提出的基于Transformer网络的ASD分类模型并没有充分利用这一优势,如Deng等[11]结合GAN(generative adversarial networks)和Transformer模型进行ASD分类,虽然使用Transformer模型的架构,但并未利用Transformer本身对于异构数据的全局特征提取能力,而是通过GAN生成虚假样本来平衡异构数据,不仅增加了模型的复杂度,而且ASD分类的精度并不理想。

    为此,本文设计了一种基于Transformer的ASD功能核磁共振成像分类模型(autism spectrum disorder classification model based on Transformer, TransASD),充分利用改进Transformer兼备局部与全局的特征提取能力,有效解决跨机构的异构数据之间特征提取问题。首先,改进Transformer模块编码窗口特征,引入针对窗口的CLS(classification)标记,利用CLS标记来捕捉针对ASD分类任务的高级特征,从而提高分类性能。其次,引入一种重叠窗口注意机制,在重叠的窗口之间利用交叉注意力和标记融合,并且窗口重叠程度在整个级联中逐渐增加,将局部特征分层过渡到全局特征,在不增加计算成本的情况下提高对异构数据的特征提取能力。最后,针对重叠窗口使用一种跨窗口正则化方法,该正则化使这些CLS标记跨窗口对齐,促进不同窗口间的信息交流,使模型聚焦于异构数据间的联系特征,从而提高最终的分类精度。

    Transformer模型于2017年由Google团队首次提出,并在自然语言处理领域中展现了巨大优势。特别是2021年视觉Transformer[12]的提出,更是在图像分割[13]、图像标注[14]、图像生成[15]、图像分类[16]、目标检测[17-18]等任务方面取得了前所未有的性能。

    Transformer模型主要由编码器和解码器2部分组成,编码器由多个相同的层堆叠而成,每个层包含自注意力机制和前馈神经网络。解码器也由多个相同的层堆叠而成,每个层包含自注意力、编码器−解码器注意力和前馈神经网络。它们通常以序列作为输入,在并行计算中扫描序列中的每个元素,以便捕捉元素之间的依赖关系。此外,Transformer模型还使用了残差连接和层归一化来加速训练和提高模型性能。

    注意力机制是Transformer模型中最关键的结构,包括自注意力机制和多注意力机制,其结构如图1所示[10]。自注意力机制的优势在于能够捕捉序列中任意2个元素之间的依赖关系,从而实现并行计算和长距离依赖建模。自注意层在计算时,需要将输入向量分别与矩阵相乘,转换为Q(query),K(key)以及V(value) 3个矩阵表示,其计算公式为

    图  1  自注意力与多头注意力结构
    Fig.  1  Self-attention and multi-head attention structure
    下载: 全尺寸图片
    Attention(Q,K,V)=SoftMax(QKTdk)V

    多头注意力机制在自注意力的基础上,由多个自注意力相连接,联合来自不同查询对象间的特征信息,从而提取更丰富全面的特征,其计算公式为

    MultHead(Q,K,V)=Concat(h1,h2,,hH)W0
    hi=Attention(QWQi,KWKi,VWVi)

    对于本文研究的长时间序列的自闭症数据来说,注意力机制能有效提取全局的特征,但对局部特征的敏感性相对有限,为此本文通过增加局部特征提取能力,实现了有效兼顾局部与全局特征的提取目标。

    本文设计的基于Transformer的ASD分类模型TransASD总体框架如图2所示,主要包含了3个部分:第1部分是数据预处理模块,fMRI原始数据通过特定的预处理管道进行基础预处理,然后将公共脑图谱应用在fMRI数据上,根据脑图谱划分的脑区提取出相应的ROI(region of interest)时间序列作为下一模块的输入。第2部分是由N个改进的Transformer模块级联用于特征提取,为了提升局部特征的提取能力,本文提出了重叠窗口注意力机制,将输入的时间序列分成重叠窗口,并为每个窗口序列前加入CLS标记用于最后的分类。重叠窗口间互相作用增强对局部特征的敏感度,再使用跨窗口正则化获取跨窗口的高级表征,随着模块级联数增加,将局部特征过渡到全局特征,从而兼顾了局部特征和全局特征的提取。第3部分是分类结果输出,从上一模块的输出标记中提取CLS标记,经过一个线性(全连接)层,最后得到ASD分类以区分患者与正常人。

    图  2  TransASD整体结构
    Fig.  2  Overall structure of TransASD
    下载: 全尺寸图片

    大多数ASD数据集是从不同的临床站点收集而来,由于不同站点间的仪器不同、采样周期不同,因此存在着复杂的跨机构数据异构问题。这不仅需要模型具有局部特征提取能力,更需要模型具有全局特征提取能力,来融合异构数据间的信息。考虑到Transformer模型拥有优异的全局特征提取能力,但其局部特征提取能力较为薄弱,为此本文在Transformer模型基础上又引用了Swin Transformer的滑动窗口注意力机制模块[19],并在此基础上做出改进,增强了模型的局部提取能力。滑动窗口注意力将自我注意力的计算限制在给定序列中不重叠的局部窗口,并在交替的Transformer块中执行半序列长度的窗口位置移动,通过窗口移动捕捉了跨窗口的相互作用。为了提高对大脑活动中功能连接的局部范围的敏感度,将不重叠的窗口改为重叠窗口来计算注意力,通过重叠的窗口以及相邻窗口之间的交叉关注和标记融合来明确地捕捉跨窗口的互动信息,从而得到异构数据间相联系的特征信息,改进后的注意力模块被命名为重叠窗口注意力,重叠窗口注意力结构如图3所示.

    图  3  重叠窗口注意力结构
    Fig.  3  Structure of overlapping window attention
    下载: 全尺寸图片

    图3中,M代表重叠的窗口数量,R代表ROI的个数,T代表时间序列的长度。每个被试会根据ROI生成一段长度为T、宽度为R的时间序列标记,Transformer块处理时间序列标记中M=(TW)/s+1个重叠窗口,W为一个重叠窗的大小,s为步长。对于每个重叠窗口,添加一个单独的可学习CLS标记用于分类。输入的CLS标记被初始化为不同重叠窗口的捆绑向量,每个窗口的CLS标记与重叠窗口注意力中的QKV相连接。最后一层使用提取出的CLS标记,将其聚合特征线性地映射到类上。

    对于注意力的计算,如图4所示,窗口的重叠部分为2L,未重叠的部分为W2L。在处理第i个窗口时,设QiR(1+W2L)×M表示查询,KiR(1+W)×M表示键,ViR(1+W)×M表示值,并在计算中加入一个相对位置偏差,其公式为

    图  4  重叠窗口注意力的计算示意
    Fig.  4  Calculation schematic of overlapping window attention
    下载: 全尺寸图片
    Attention(Qi,Ki,Vi)=SoftMax(QiKTi/d+B)Vi

    式中:B是一个可学习的相对位置偏差矩阵,d为注意力头的特征维度。

    重叠窗口注意力将标记之间的特征交互限制在每个窗口的邻域上,从而捕获局部精度的潜在特征,而随着Transformer层级联层数的增加,重叠窗口的重叠度会逐渐增加,通过全局的CLS标记进行上下文信息整合,从而从局部特征过渡到全局特征。

    TransASD的第1个Transformer块接收一个跨时间窗口共享的单一CLS标记作为输入。然后,Transformer编码器根据每个窗口接受域内的时间序列标记计算出一个特殊的CLS标记。而不同窗口间CLS标记所捕获的窗口级特征在很大程度上是不兼容的,那么模型在分类任务中的表现可能会因此受到影响。因此,为了获取跨窗口的高级特征,引入了一个跨窗口正则化作为一个额外的损失项Lw,其公式为

    Lw=1RMM1i=0 (1)

    式中:R代表ROI数量,M为窗口数,模型由N个改进的Transformer块级联,[N - 1]代表最后一个Transformer块的索引。其中C_i^{{\mathrm{LS}}}[N - 1]是最后一个Transformer块输出的第i个窗口的编码CLS标记。式(1)中的正则化项对单个CLS标记与窗口中的平均值的偏差进行惩罚。

    在Transformer模型中,损失函数的计算是基于交叉熵损失函数的,其交叉熵损失公式为

    {L_{{\text{CLS}}}} = - \sum {{C^{{\text{LS}}}}\log ({C^{{\text{LS}}}}')}

    式中:{C^{{\text{LS}}}}表示正确的分类标记,{C^{{\text{LS}}}}'表示模型预测的标记。总的损失公式为

    L = {L_{{\text{CLS}}}} + \lambda {L_{\text{W}}}

    式中 \lambda 为跨窗口正则化的损失系数。

    为了验证本文提出模型的有效性和先进性,这里将从3个方面进行实验:1)数据预处理方面的选取实验,以及参数的设置实验;2)验证提出模型的有效性,对改进的重叠窗口注意力机制以及跨窗口正则化进行消融实验;3)验证提出模型的先进性,将本文提出的改进模型与目前ASD分类任务上较好的模型进行性能对比。

    实验是在具备 NVIDIA GTX 1080 GPU 的系统上,使用 Ubuntu 操作系统和 PyTorch 框架进行的。为了验证算法的准确性以及避免结果的偶然性,所有实验均使用10折交叉验证法(10-fold cross-validation)[20]。10折交叉验证法会将数据集分成10个互斥的子集,选取1个作为测试集,其他9个为训练集,依次进行10次试验,最终对得到的10次结果取平均值,这种划分方式可以利用有限的数据资源避免不合理的数据划分而导致的模型评估偏差。据此,受试者被分成不重叠的训练集(80%)、验证集(10%)和测试集(10%)。根据第一个验证集的性能进行超参数选择,然后使用在所有数据集和图谱中显示出接近最佳性能的选定参数,包括学习率、迭代次数和批次。为了提高随机性和学习效率,对于每个样本提取60 TR的时间序列。选定参数的最佳结果如表1所示。

    表  1  选定参数最佳结果
    Table  1  Important experimental parameters
    参数名称 设定值
    初始学习率 0.000 1
    迭代次数 20
    批次 32
    Transformer层数N 4
    正则化系数λ 0.1
    窗口大小 15

    本文采用通用的自闭症数据集ABIDE(autism brain imaging data exchange)[21] ,ABIDE包含2个子数据集ABIDE I和ABIDE II,由于ABIDE II没有开源的预处理数据,因此本文使用ABIDE I来评估模型的分类性能。ABIDE I收集了来自17个不同的研究机构,共包含1 112个被试,其中包含有效静息态fMRI数据的为1 035位被试,未通过预处理连接体项目(preprocessed connectomes project, PCP)质量评估的低质量样本被排除在外,最后剩下包含403名ASD患者和468名正常对照者的871个样本[22]

    使用PCP所提供的预处理管道中的静息态fMRI数据处理助手(data processing assistant for resting-state fMRI, DPARSF)[23]作为预处理管道进行实验。DPARSF管道对原始数据的预处理步骤包含切片时间校正、运动调整、强度归一化、去除头动噪声、低频偏移等。关于预处理静息状态功能磁共振成像数据的最佳方法尚无共识,对于带通滤波和全局信号校正预处理步骤的争议,PCP对每个管线执行了4种不同的预处理策略:带和不带滤波以及带和不带全局信号校正的所有组合。对于包括全局信号校正的策略,全局平均信号包含在有害变量回归中,在有害变量回归之后应用带通滤波(0.01~0.1 Hz)。针对这4项预处理策略,分别进行ASD分类实验,数据集为ABIDE I经过质量筛选后的871个样本,使用Schaefer400脑图谱测试,所测试模型为未引入重叠窗注意力和跨窗正则化的原始模型TransASD-raw。评价指标为准确率,计算方法为10折交叉验证所得到的10次准确率的平均值,结果如表2所示。

    表  2  带通滤波和全局信号校正的策略选择
    Table  2  Strategy selection for bandpass filtering and global signal correction %
    策略带通滤波全局信号校正准确率
    filt_global68.78
    filt_noglobal×69.54
    nofilt_global×69.80
    nofilt_noglobal××70.19

    结果显示对于不带通滤波和不全局信号校正的策略nofilt_noglobal取得了最佳的准确率结果,因此后续的实验皆在此策略下进行。

    本文选择CC200、CC400和Schaefer400这3个脑图谱[24]实验,实验模型使用TransASD-raw。由于这3个脑图谱的ROI数量不一致,因此对于参数维度(dim)分别设置为200、392和400。评价指标为准确率,计算方法为10折交叉验证所得到的10次准确率取平均值,结果如表3所示。

    表  3  脑图谱选择
    Table  3  Brain atlas selection %
    脑图谱准确率
    CC20067.63
    CC40069.86
    Schaefer40070.19

    Schaefer400脑图谱在ASD分类实验中取得了最好的准确率,据分析是因为Schaefer400相较于CC200和CC400的ROI数量更多,提取了更多有关于ASD分类的特征。虽然CC400与Schaefer400的ROI数量相近,但Schaefer400所划分的脑分区可能对于ASD分类任务所需的潜在特征更加拟合。因此后续的实验皆使用Schaefer400脑图谱进行ROI的提取。

    为了验证本文所设计模型TransASD的有效性,这里进行了消融实验来评估TransASD中重叠窗口注意力和跨窗口正则化的有效性。从原始的模型TransASD-raw开始,通过逐步引入重叠窗口注意力和跨窗口正则化,进行有效性的验证。TransASD-raw使用Swin Transformer中的不重叠的滑动窗口注意力,且不引入CLS标记,损失函数不添加跨窗口正则化,仅使用交叉熵损失。所使用的评价指标为准确率、精确率和召回率,皆为10折交叉验证下的平均值,结果如表4所示。

    表  4  模型有效性验证
    Table  4  Verification of model %
    模型 重叠窗
    注意力
    跨窗
    正则化
    准确率 精确率 召回率
    TransASD-raw × × 70.19 70.65 76.70
    TransASD-1 × 70.99 71.05 77.11
    TransASD-final 71.44 71.42 78.60

    表4可以看出,引入了重叠窗注意力之后,TransASD-1与TransASD-raw相比,准确率提高了 1.13%,精确率提高了0.57%,召回率提高了0.53%,证明本文所设计的重叠窗注意力能够提高模型对局部特征的提取能力,因此改进是有效的。引入了跨窗正则化之后,TransASD-final相较于TransASD-1,准确率提高了0.63%,精确率提高了0.52%,召回率提高了1.93%,证明了本文在计算损失函数时引入跨窗正则化损失函数作为额外损失,能有效提高模型的分类性能。最后,将上述2个改进点同时引入后,TransASD-final与TransASD-raw相比,准确率提高了1.78%,精确率提高了1.09%,召回率提高了2.48%,性能达到最优,从而证明本文提出的改进是有效的。

    为了验证本文模型的先进性,与目前较新且文献来源更权威的ASD分类模型进行对比实验,对比的结果如表5所示。

    表  5  模型先进性验证
    Table  5  Verification of model advancement %
    模型数据集验证法准确率
    文献[7]ABIDE I5折58.00
    文献[8]ABIDE I10折70.20
    文献[9]ABIDE I10折70.49
    文献[11]ABIDE I10折71.01
    TransASDABIDE I10折71.44

    表5可以看出,在基于同一公开数据集的实验中,本文提出的模型在跨机构的完整数据样本下取得了最佳的分类准确率。相较于文献[7]所使用的5折验证法,本文使用了更严格的10折验证法进行训练和测试,且得到了更高的分类准确率。文献[7]在单机构样本数据下取得了较高精度,但在异构数据集下,其准确率远不如本文提出的方法,体现了本文提出的TransASD的泛化能力。对比文献[8]和文献[9]得到了更高的准确率,且其中文献[9]所用数据集不够完整。文献[11]使用GAN模型进行数据增强,生成了虚假样本进行训练,但其准确率仍不如本文方法。由此可见,本文提出的TransASD模型在更真实且异构样本下,达到了最优的分类精度,有效地提高了模型泛化能力。综上所述,通过有效性和先进性2个方面的实验证明,本文提出的模型在ASD分类准确率上达到目前最优的效果。

    本文提出一种基于Transformer的ASD分类模型,对跨机构的核磁共振成像数据进行分类。首先,通过引入重叠窗口注意力,提高了模型的局部特征提取能力,由此兼顾了异构数据的全局特征与局部特征的提取效果。其次,提出跨窗正则化方法来优化损失函数,进一步提高了ASD跨机构异构数据的分类效果。本文通过进行一系列的实验,选取最优的预处理管道和脑图谱,通过消融实验证明了模型的有效性,而与先进算法的对比实验取得了最优的分类准确率,为未来的自闭症检测工作奠定了良好的基础。

  • 图  1   自注意力与多头注意力结构

    Fig.  1   Self-attention and multi-head attention structure

    下载: 全尺寸图片

    图  2   TransASD整体结构

    Fig.  2   Overall structure of TransASD

    下载: 全尺寸图片

    图  3   重叠窗口注意力结构

    Fig.  3   Structure of overlapping window attention

    下载: 全尺寸图片

    图  4   重叠窗口注意力的计算示意

    Fig.  4   Calculation schematic of overlapping window attention

    下载: 全尺寸图片

    表  1   选定参数最佳结果

    Table  1   Important experimental parameters

    参数名称 设定值
    初始学习率 0.000 1
    迭代次数 20
    批次 32
    Transformer层数N 4
    正则化系数λ 0.1
    窗口大小 15

    表  2   带通滤波和全局信号校正的策略选择

    Table  2   Strategy selection for bandpass filtering and global signal correction %

    策略带通滤波全局信号校正准确率
    filt_global68.78
    filt_noglobal×69.54
    nofilt_global×69.80
    nofilt_noglobal××70.19

    表  3   脑图谱选择

    Table  3   Brain atlas selection %

    脑图谱准确率
    CC20067.63
    CC40069.86
    Schaefer40070.19

    表  4   模型有效性验证

    Table  4   Verification of model %

    模型 重叠窗
    注意力
    跨窗
    正则化
    准确率 精确率 召回率
    TransASD-raw × × 70.19 70.65 76.70
    TransASD-1 × 70.99 71.05 77.11
    TransASD-final 71.44 71.42 78.60

    表  5   模型先进性验证

    Table  5   Verification of model advancement %

    模型数据集验证法准确率
    文献[7]ABIDE I5折58.00
    文献[8]ABIDE I10折70.20
    文献[9]ABIDE I10折70.49
    文献[11]ABIDE I10折71.01
    TransASDABIDE I10折71.44
  • [1] LYALL K, CROEN L, DANIELS J, et al. The changing epidemiology of autism spectrum disorders[J]. Annual review of public health, 2017, 38: 81−102. doi: 10.1146/annurev-publhealth-031816-044318
    [2] NICKEL R E, HUANG-STORMS L. Early identification of young children with autism spectrum disorder[J]. Indian journal of pediatrics, 2017, 84(1): 53−60. doi: 10.1007/s12098-015-1894-0
    [3] CHUNG T, CORNELIUS J, CLARK D, et al. Greater prevalence of proposed ICD-11 alcohol and cannabis dependence compared to ICD-10, DSM-IV, and DSM-5 in treated adolescents[J]. Alcoholism, clinical and experimental research, 2017, 41(9): 1584−1592. doi: 10.1111/acer.13441
    [4] KHODATARS M, SHOEIBI A, SADEGHI D, et al. Deep learning for neuroimaging-based diagnosis and rehabilitation of autism spectrum disorder: a review[J]. Computers in biology and medicine, 2021, 139: 104949. doi: 10.1016/j.compbiomed.2021.104949
    [5] CROSSON B, FORD A, MCGREGOR K M, et al. Functional imaging and related techniques: an introduction for rehabilitation researchers[J]. Journal of rehabilitation research and development, 2010, 47(2): vii−xxxiv. doi: 10.1682/JRRD.2010.02.0017
    [6] GREICIUS M. Resting-state functional connectivity in neuropsychiatric disorders[J]. Current opinion in neurology, 2008, 21(4): 424−430. doi: 10.1097/WCO.0b013e328306f2c5
    [7] EL-GAZZAR A, QUAAK M, CERLIANI L, et al. A hybrid 3DCNN and 3DC-LSTM based model for 4D spatio-temporal fMRI data: an ABIDE autism classification study[M]//OR 2.0 Context-Aware Operating Theaters and Machine Learning in Clinical Neuroimaging. Cham: Springer International Publishing, 2019: 95−102.
    [8] SHERKATGHANAD Z, AKHONDZADEH M, SALARI S, et al. Automated detection of autism spectrum disorder using a convolutional neural network[J]. Frontiers in neuroscience, 2020, 13: 1325. doi: 10.3389/fnins.2019.01325
    [9] 郭磊, 王骏, 丁维昌, 等. 4D卷积神经网络的自闭症功能磁共振图像分类[J]. 智能系统学报, 2021, 16(6): 1021−1029. doi: 10.11992/tis.202009022

    GUO Lei, WANG Jun, DING Weichang, et al. Classification of the functional magnetic resonance image of autism based on 4D convolutional neural network[J]. CAAI transactions on intelligent systems, 2021, 16(6): 1021−1029. doi: 10.11992/tis.202009022
    [10] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: ACM, 2017: 6000–6010.
    [11] DENG Xin, ZHANG Jiahao, LIU Rui, et al. Classifying ASD based on time-series fMRI using spatial–temporal transformer[J]. Computers in biology and medicine, 2022, 151: 106320. doi: 10.1016/j.compbiomed.2022.106320
    [12] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: Transformers for image recognition at scale[EB/OL]. (2020−10−22)[2024−02−26]. https://arxiv.org/abs/2010.11929.
    [13] ZHENG Sixiao, LU Jiachen, ZHAO Hengshuang, et al. Rethinking semantic segmentation from a sequence-to-sequence perspective with transformers[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021: 6877−6886.
    [14] LI Guang, ZHU Linchao, LIU Ping, et al. Entangled transformer for image captioning[C]//2019 IEEE/CVF International Conference on Computer Vision. Seoul: IEEE, 2019: 8928−8937.
    [15] PARMAR N, VASWANI A, USZKOREIT J, et al. Image transformer[C]//International conference on machine learning. Stockholm: PMLR, 2018: 4055−4064.
    [16] HONG Danfeng, HAN Zhu, YAO Jing, et al. SpectralFormer: rethinking hyperspectral image classification with transformers[J]. IEEE transactions on geoscience and remote sensing, 2021, 60: 5518615.
    [17] CARION N, MASSA F, SYNNAEVE G, et al. End-to-end object detection with transformers[C]//Computer Vision–ECCV 2020. Cham: Springer International Publishing, 2020: 213−229.
    [18] BEAL J, KIM E, TZENG E, et al. Toward transformer-based object detection[EB/OL]. (2020−12−17) [2024−02−26]. https://arxiv.org/abs/2012.09958.
    [19] LIU Ze, LIN Yutong, CAO Yue, et al. Swin transformer: hierarchical vision transformer using shifted windows[C]//2021 IEEE/CVF International Conference on Computer Vision. Montreal: IEEE, 2021: 9992−10002.
    [20] FUSHIKI T. Estimation of prediction error by using K-fold cross-validation[J]. Statistics and computing, 2011, 21(2): 137−146. doi: 10.1007/s11222-009-9153-8
    [21] MAENNER MATTHEW J, MARSHALYN Y A, KIM V N B, et al. Development of a machine learning algorithm for the surveillance of autism spectrum disorder[J]. PLoS One, 2016, 11(12): e0168224. doi: 10.1371/journal.pone.0168224
    [22] ABRAHAM A, MILHAM M P, DI MARTINO A, et al. Deriving reproducible biomarkers from multi-site resting-state data: an Autism-based example[J]. NeuroImage, 2017, 147: 736−745. doi: 10.1016/j.neuroimage.2016.10.045
    [23] YAN Chaogan, WANG Xindi, ZUO Xinian, et al. DPABI: data processing & analysis for (resting-state) brain imaging[J]. Neuroinformatics, 2016, 14(3): 339−351. doi: 10.1007/s12021-016-9299-4
    [24] SCHAEFER A, KONG Ru, GORDON E M, et al. Local-global parcellation of the human cerebral cortex from intrinsic functional connectivity MRI[J]. Cerebral cortex, 2018, 28(9): 3095−3114. doi: 10.1093/cercor/bhx179
WeChat 点击查看大图
图(4)  /  表(5)
出版历程
  • 收稿日期:  2024-02-26
  • 网络出版日期:  2025-01-17

目录

/

返回文章
返回