基于可信多视图关联融合的脑网络分析算法

戴稳豪 丁卫平 尹涛 侯涛 陈悦鹏

戴稳豪, 丁卫平, 尹涛, 等. 基于可信多视图关联融合的脑网络分析算法 [J]. 智能系统学报, 2026, 21(2): 553-564. doi: 10.11992/tis.202507026
引用本文: 戴稳豪, 丁卫平, 尹涛, 等. 基于可信多视图关联融合的脑网络分析算法 [J]. 智能系统学报, 2026, 21(2): 553-564. doi: 10.11992/tis.202507026
DAI Wenhao, DING Weiping, YIN Tao, et al. Brain network analysis algorithm based on trusted multiview association fusion [J]. CAAI Transactions on Intelligent Systems, 2026, 21(2): 553-564. doi: 10.11992/tis.202507026
Citation: DAI Wenhao, DING Weiping, YIN Tao, et al. Brain network analysis algorithm based on trusted multiview association fusion [J]. CAAI Transactions on Intelligent Systems, 2026, 21(2): 553-564. doi: 10.11992/tis.202507026

基于可信多视图关联融合的脑网络分析算法

doi: 10.11992/tis.202507026
基金项目: 国家重点研发计划项目(2024YFE0202700); 国家自然科学基金项目(62576178, U2433216); 江苏省自然科学基金项目(BK20231337); 江苏省现代农业机械装备与技术推广项目(NJ2024-06); 江苏省研究生科研与实践创新计划项目(SJCX25_2008,KYCX24_3646,KYCX23_3393).
详细信息
    作者简介:

    戴稳豪,硕士研究生,主要研究方向为不确定性深度学习和脑网络分析。E-mail:dwh668802@163.com;

    丁卫平,教授,博士生导师,主要研究方向为多模态机器学习、多粒度计算、演化计算和医学大数据分析。发表学术论文300余篇。E-mail:dwp9988@163.com;

    尹涛,博士研究生,主要研究方向为超图神经网络和粒计算。E-mail:haszyt@163.com.

    通讯作者:

    丁卫平. E-mail:dwp9988@163.com.

  • 中图分类号: TP18

Brain network analysis algorithm based on trusted multiview association fusion

  • 摘要:

    动态功能连接与多视图学习相结合的方法通常假设多视图数据质量高度一致,忽略了现实世界中多视图数据的异质性及不可信性。针对上述问题,本文提出了基于可信多视图关联融合的脑网络分析算法。利用局部-全局卷积滤波器提取多视图脑网络证据;构建多视图关联融合网络,通过跨视图关联性衡量信息共享程度,采用选择性策略保留包含最多共有信息的视图,动态剔除低质量数据。为平滑证据强度,设计动态信任评估机制,将证据不确定性与类别概率联合建模来量化可信度并与证据加权中和。在两个真实的精神分裂症数据集上进行了多组实验,结果验证了算法的有效性和先进性,显著提高了脑疾病诊断任务的分类性能。

     

    Abstract:

    Dynamic functional connectivity combined with multiview learning usually assumes that the quality of multiview data is highly consistent, ignoring the heterogeneity and untrustworthiness of multiview data in the real world. To address the above problems, a brain network analysis algorithm based on trusted multiview association fusion is proposed. First, a local-global convolutional filter is utilized to extract multiview brain network evidence; second, a multiview association fusion network is constructed to measure the degree of information sharing through cross-view correlation, and then a selective strategy is used to retain the views containing the most shared information and dynamically reject low-quality data. To smooth the strength of evidence, a dynamic trust assessment mechanism is designed to quantify trustworthiness and neutralize it with evidence weighting by jointly modeling evidence uncertainty and category probability. Multiple sets of experiments are conducted on two real schizophrenia datasets, and the results validate the effectiveness and sophistication of the algorithms, which significantly improve the classification performance of the brain disease diagnosis task.

     

  • 深入探究大脑系统,是现代神经科学领域所致力于达成的重要目标[1]。通过对大脑网络进行详尽分类与研究,深入探索大脑各个区域之间如何相互连接并协同工作,以执行高度复杂的认知任务[2]。这一过程为洞察认知功能的本质提供了不可或缺的视角,极大地深化了对大脑复杂运作机制和原理的理解与认识。而今脑疾病的诊断过程在很大程度上是凭借对症状的直观审视和临床医师个体经验的累积。有鉴于此,借助脑网络技术来协助医生实现脑疾病精确诊断,已成为该科研领域中一项至关重要的研究方向[3]

    静息态功能性磁共振成像(resting state functional magnetic resonance imaging,rs-fMRI)作为一种强大的非侵入性成像技术,已被广泛采纳以深入探究大脑各区域间复杂的相互作用模式,其通过捕捉血氧水平依赖(blood oxygenation level dependent,BOLD)信号赋予精确绘制大脑功能连接图谱的能力[4]。然而,大脑功能连接本质上呈现动态时变特性,即动态功能连接(dynamic functional connectivity,DFC)。DFC方法通过对时间序列数据进行时段划分及相关性度量,精准地捕捉大脑功能连接随时间推进所展现出的动态变化,这使得DFC分析成为解析脑网络时空变化的重要突破口。例如,Zhao等[5]采用动态功能连接分析方法来识别阿尔茨海默病和遗忘型轻度认知障碍患者的异常。Wang等[6]提出DFC-Igloo模型,实现对DFC的精确构建。

    随着深度学习技术的发展,端到端的学习模式逐步突破传统脑网络分析手工特征设计的局限[7-9]。例如,Kawahara等[10]创新性地构建了边到边、边到节点及节点到图的级联卷积模块,实现脑网络拓扑特征的层次传递。Chu等[11]提出多尺度图卷积网络(graph convolutional network, GCN)框架,结合多脑图谱分区策略,实现功能连接网络的跨尺度动态聚合。这些工作为进一步引入多视图学习提供启发。多视图学习通过多视图融合策略突破单视角限制,因此成为脑网络分析的重要方向[12]。多视图融合的核心在于协调一致性对齐与互补性挖掘。前者通过潜在空间语义对齐挖掘视图间的相关性,消除语义偏差,构建全局一致的知识表征;后者则通过特征正交性约束保留各视图的独有判别性信息,最大化跨视图互信息量,形成互补性信息池[13]。在此基础上,研究者提出了多种优化策略,例如利用字典学习与噪声建模增强跨视图鲁棒性[14-15]。然而,由于动态功能连接固有的时间异质性,这类方法应用于脑网络分析中,未充分考虑视图间的原始相关性,可能导致冗余和噪声干扰。

    除此之外,深度学习模型在高风险场景中的应用受限于其对预测不确定性的忽视[16]。传统方法将输出置信度简单等同于模型确定性,却无法区分数据噪声与认知不足引发的决策风险。基于此,研究者们从贝叶斯推断与证据理论两种方法切入,构建不确定性量化框架,逐步推动模型向可信决策发展。贝叶斯神经网络通过概率权重重新建模,将数据分布偏移引发的结果波动量化为不确定性[17]。证据深度学习(evidence deep learning,EDL)则通过狄利克雷分布参数化分类证据,直接量化缺失证据评估不确定性。相关研究提出了多种扩展方法,如基于证据聚合与冲突折减的多视图可信学习框架[18-19],用于应对多视图数据融合过程中的可靠性与冲突问题。但输出函数仍未被充分建模,单一证据输出容易产生过度自信甚至不确定性,从而影响结果的可信性。

    基于上述缺陷,本文提出基于可信多视图关联融合(trusted multiview association fusion,TMAF)的脑网络分析算法。为充分发挥DFC精确捕捉脑网络时空变化的能力,本文将每个时间窗作为独立的视图单元,引入特征提取模块,通过边至边(edge-to-edge,E2E)、边至点(edge-to-node,E2N)以及点至全图(node-to-graph,N2G)的卷积核协同捕捉动态连接网络的局部−全局特征,并生成相应的特征证据。设计关联驱动的选择性融合机制,通过计算跨视图特征相关性实现信息蒸馏,同时构建动态信任评估模块,基于证据理论和概率分布双重量化时间窗的信任度。

    本文的主要贡献如下:

    1)设计了基于关联总量的选择性融合机制,通过动态特征相关性度量实现信息筛选,解决多视图融合中信息重叠和噪声干扰问题。

    2)提出面向动态功能连接的多视图信任评估模型,将证据不确定性与类别概率联合建模,突破传统方法对数据质量不敏感的局限和单个结果过度自信所带来的问题,并为此构建复合损失函数,实现动态同源双目标协同优化。

    可信多视图关联融合(TMAF)算法的整体流程如图1所示。首先DFC脑网络数据输入模型,利用E2E、E2N和N2G卷积滤波器实现证据提取并进行多视图融合;接着,进一步对基本信任度和证据建模实现动态信任评估;最后信任度与选择性融合后的证据加权融合得到结果。本文将从以下4个部分对TMAF方法的核心机制进行叙述:证据提取、多视图融合、动态信任评估和损失函数。符号说明如表1所示。

    图  1  可信多视图关联融合模型
    Fig.  1  Trusted multi-view association fusion model
    下载: 全尺寸图片
    表  1  符号说明
    Table  1  Symbol description
    符号 含义
    $ V $ 视图总数
    $ v $ 视图索引
    $ {v}^{i} $ 第$ i $个视图
    $ {v}^{j} $ 第$ j $个视图
    $ {v}^{\max } $ 最大关联总量视图
    $ N $ 样本总数
    $ n $ 第$ n $个样本
    $ K $ 类别总数
    $ k $ 第$ k $类
    $ s $ 第$ s $个滤波器
    $ (\gamma ,\tau ) $ 矩阵索引位置
    $ h $ 第$ h $个通道
    $ M $ 外层求和上限
    $ \varDelta $ 通道求和上限
    $ {\boldsymbol{A}} $ 初始矩阵
    $ a $ 视图$ i $的类别取值
    $ b $ 视图$ j $的类别取值

    为实现脑网络特征的层次化提取并累积有效证据,本文引入了E2E、E2N和N2G三级特征提取模块。接下来,本文将详细阐述这些滤波器的特性与功能。

    定义1 E2E卷积滤波器[3]。E2E卷积滤波器处理原始连接矩阵,通过节点间的动态权重参数自适应调整脑区间的功能连接强度,并提取边层面的局部拓扑特征,E2E定义表达为

    $$ {E}_{\gamma ,\tau }^{s,v}=\mathrm{Re}{\mathrm{LU}}\left(\sum\limits_{h=1}^{\varDelta }({{\delta}} _{h}^{s}{\boldsymbol{A}}_{\gamma ,h}^{d,v}+\varepsilon _{h}^{s}{{{\boldsymbol{A}}}}_{h,\tau }^{s-1,v})+{\beta }^{s}\right) $$ (1)

    式中:$ {\delta }^{s}\in {\bf{R}}^{\varDelta } $和$ {\varepsilon }^{s}\in {\bf{R}}^{\varDelta } $是学习权重,$ {\beta }^{s} $是偏置。

    定义2 E2N卷积滤波器[3]。E2N卷积滤波器在一维空间尺度上进行线性映射,将边缘特征聚合为节点层次的特征描述,E2N表达为

    $$ N_{\gamma }^{s,v}=\mathrm{Re}{\mathrm{LU}}\left(\sum\limits_{m=1}^{M}\sum\limits_{h=1}^{\varDelta }{{\delta}} _{h}^{m,s}E_{\gamma ,h}^{m,v}+{\beta }^{s}\right) $$ (2)

    式中:$ \delta _{h}^{m,s}\in {\bf{R}}^{\varDelta } $是学习权重,$ (m,s) $表示每对输入和输出在每层的特征表示。

    定义3 N2G卷积滤波器[3]。N2G卷积滤波器分析图中各节点的信息,将全脑节点特征压缩为图级表征,缩减了特征图的空间范围,为后续融合提供基础,N2G表达为

    $$ {G}^{s,v}=\mathrm{Re}{\mathrm{LU}}\left(\sum\limits_{m=1}^{M}\sum\limits_{\gamma =1}^{\Delta }{{\sigma}} _{\gamma }^{m,s}N_{\gamma }^{m,v}+{\beta }^{s}\right) $$ (3)

    其中$ \sigma _{\gamma }^{m,s}\in {{{\mathrm{R}}}}^{\varDelta } $是学习权重。

    E2E捕捉动态脑网络中的边缘属性。E2N将这些边缘属性综合,形成节点属性。N2G进一步从相邻边中提取成组的节点属性,完成全局属性的转换。3种滤波器依次提取特征$ \{{X}_{n}\}_{n=1}^{N} $,充分获取脑网络复杂信息,得到特征表示$ {\boldsymbol{d}}_{\mathrm{FC}}\in \{\{{({{\mathrm{R}}_{n}^{64}})}_{v}\}_{n=1}^{N}\}_{v=1}^{V} $。在$ K $分类任务中利用全连接层和Softplus激活函数处理$ {\boldsymbol{d}}_{\mathrm{FC}} $获得样本的动态脑网络特征证据集合,记为$ e=\{e_{1}^{v},e_{2}^{v},\cdot \cdot \cdot ,e_{K}^{v}\}_{v=1}^{V} $。

    本文设计关联总量选择性融合机制来融合多个视图的信息。互信息(mutual information,MI)是信息论中的一个重要概念,用于度量两个随机变量之间共享的信息量[20]。它是衡量两个变量相关性的一种方法,但与传统的相关系数不同,MI不仅衡量线性关系,还能够捕捉非线性关系。为量化不同视图间的信息关联程度,本文使用MI作为选择依据。并计算每两个视图之间的关联性。

    定义4 视图对互信息。设样本$ n $在视图$ i $和视图$ j $的支持量分别为$ d_{i}^{n} $和$ d_{j}^{n} $,则样本$ n $在两个视图之间的互信息为

    $$ {I}^{n}({v}^{i};{v}^{j})=\sum\limits_{a=0}^{1}\sum\limits_{b=0}^{1}p_{ij}^{n}(a,b)\log \frac{p_{ij}^{n}(a,b)}{p_{i}^{n}(a)p_{j}^{n}(b)} $$ (4)

    式中:$ p_{i}^{n}(a)=d_{i,a}^{n} $、$ p_{j}^{n}(b)=d_{j,b}^{n} $为对应类别的边缘概率;联合概率假设视图独立,取$ p_{ij}^{n}(a,b)=d_{i,a}^{n}\cdot d_{j,b}^{n} $。

    本文使用上述方法处理所得证据。对于每个样本计算各视图互信息之和作为信息关联性指标来选择代表性样本,称之为关联总量。对于每个视图$ i $,计算它与其他所有视图$ j $之间的关联总量,计算公式为

    $$ {T}^{n}(i)=\sum\limits_{j\neq i}{I}^{n}({v}^{i};{v}^{j}) $$ (5)

    根据式(5),每个视图的样本均得到一个关联总量值。关联总量表示样本在单个视图的信息贡献量,值越大,说明该视图的样本代表性越强。本文通过衡量关联总量的值进行选择性融合。多视图融合阶段,对于样本$ n $,遍历其所有视图,选择具有最大关联总量的视图信息,计算公式为

    $$ \hat{v}=\arg \underset{{v}^{\max }}{\max }{T}^{n}(i) $$ (6)

    本文将样本$ n $在视图$ \hat{v} $中的值作为该样本的特征表示。最终$ V $个视图合并成了一个视图,视图内均是每个样本最具有代表性的特征表示。多视图融合技术如图2所示。

    图  2  多视图融合模块
    Fig.  2  Multi-view association fusion module
    下载: 全尺寸图片

    本方法关注信息的质量而非数量,通过特征提取层和信息选择层实现双重降噪。三级卷积结构通过参数化特征转换去除原始信号中的随机噪声,选择性机制主动淘汰低关联视图,只保留共享最大信息的特征表示,根据数据的重要性作出决策,更加依赖于关键视图,而非从多个视图中取平庸的信息,减少冗余信息,简化特征空间。

    在$ V $个视图$ K $分类任务中,样本的决策证据为$ e=\{e_{1}^{v},e_{2}^{v},\cdot \cdot \cdot ,e_{K}^{v}\}_{v=1}^{V} $,其分类结果服从狄利克雷分布$ \alpha =\{\alpha _{1}^{v},\alpha _{2}^{v},\cdot \cdot \cdot ,\alpha _{K}^{v}\}_{v=1}^{V} $,该分布通常作为多项式分布的共轭先验,用于描述多个变量之间相互关系的概率分布[21]。主观逻辑[22]通过$ {\alpha }_{k}={e}_{k}+1 $将狄利克雷分布导出,同时为样本分配每个类别的信念质量$ b_{k}^{v} $和不确定性质量$ {u}^{v} $,计算公式为

    $$ b_{k}^{v}=\frac{e_{k}^{v}}{{S}^{v}}=\frac{\alpha _{k}^{v}-1}{{S}^{v}} $$ (7)
    $$ {u}^{v}=\frac{K}{{S}^{v}} $$ (8)

    式中$ {S}^{v}=\displaystyle\sum\limits_{i=1}^{K}\alpha _{i}^{v}=\displaystyle\sum\limits_{i=1}^{K}(e_{i}^{v}+1) $是狄利克雷强度。信念质量和不确定性质量都是非负的,并且其总和为1:

    $$ {u}^{v}+\sum\limits_{k=1}^{K}b_{k}^{v}=1 $$ (9)

    传统的证据深度学习框架中,通常直接将ReLU函数作为基本信念分配(basic beliefs allocation,BBA)方法,它将深度神经网络(deep neural network,DNN)输出与证据信息关联,更好地保留证据的原始强度[23]。本文将ReLU函数替换为Softplus函数以得到更平滑的证据输出,同时构建了动态信任评估模块,通过修正机制实现可信度建模。本文把Softmax函数输出作为基础信任度,然后直接对证据本身进行建模,对基础的信任度进行惩罚动态信任评估模块如图3所示。

    图  3  动态信任评估模块
    Fig.  3  Dynamic trust assessment module
    下载: 全尺寸图片

    定义5 动态信任度。假设基本信任度$ \zeta _{k}^{v} $是第$ v $个视图的Softmax函数输出,在此基础上对信念质量$ b_{k}^{v} $和不确定性质量$ {u}^{v} $进行联合建模,融合得到最终的信任度$ c_{k}^{v} $,计算公式为

    $$ c_k^v = \frac{{\zeta _k^v}}{{ - \log \left( {b_k^v + {u^v}/K} \right)}}$$ (10)

    式中$ K $是类别个数。

    根据定义5可以看出$ k $类别的基本信任度越高,信念质量越高,动态信任度就越高。反之亦然。值得注意的是,虽然信任度对每个视图的分类结果进行了修正和增强,但是完全保留该信息仍会引入了额外的不可靠性。所以本文对这些视图的信息进行平均化处理来确保信息的有效性。平均化后的信任度对多视图融合后的证据进行加权,得到最终的类别支持量,最后根据支持量直接判断所属类别。

    在多视图分类任务中,神经网络模型通常采用交叉熵损失进行训练。传统交叉熵损失的定义为

    $$ {\mathcal{L}}_{{\mathrm{ce}}}=-\sum\limits_{k=1}^{K}{y}_{mk}\log ({p}_{mk}) $$ (11)

    式中$ {p}_{mk} $是第$ m $个样本属于类别$ k $的预测概率。但该损失无法直接建模证据的分布特性。本文提出的模型通过特定网络输出包含每个样本的证据集,并推到出狄利克雷分布的参数$ \alpha $。此时,第$ m $个样本的类别分配概率$ {P}_{m} $服从多项式意见$ {\mathrm{Dir}}({P}_{m}|{\alpha }_{m}) $,针对性修改后的交叉熵损失为

    $$ {\mathcal{L}}_{{\mathrm{ace}}}({\alpha }_{m})=\sum\limits_{k=1}^{K}{y}_{mk}(\psi ({S}_{m})-\psi ({\alpha }_{mk})) $$ (12)

    式中$ \psi (\cdot ) $是digamma函数,用于替代传统对数运算以适配分布特性。为进一步约束分布形状,本文引入KL散度正则化项将预测分布$ {\mathrm{Dir}}({P}^{v}|{\tilde{\alpha }}^{v}) $向均匀分布$ {\mathrm{Dir}}({P}^{v}|[1,\cdot \cdot \cdot ,1])] $对齐,其表达式为

    $$ \mathcal{L}_{{\mathrm{KL}}}^{v}({\alpha }^{v})={D}_{{\mathrm{KL}}}[{\mathrm{Dir}}({P}^{v}|{\tilde{\alpha }}^{v})||{\mathrm{Dir}}({P}^{v}|[1,\cdot \cdot \cdot ,1])] $$ (13)

    式中:$ {\tilde{\alpha }}^{v}=y+(1-y)\circ {\alpha }^{v} $是狄利克雷分布的调整参数,防止模型在正确类别预测饱和时的优化停滞现象。对于第$ v $个视图、第$ m $个样本,狄利克雷分布参数为$ \alpha _{m}^{v} $,其优化损失函数为

    $$ \mathcal{L}_{m}^{v}={\mathcal{L}}_{{\mathrm{ace}}}(\alpha _{m}^{v})+\lambda \mathcal{L}_{{\mathrm{KL}}}^{v}(\alpha _{m}^{v}) $$ (14)

    式中$ \lambda \gt 0 $是协调因子。为了保证基本信任度的效果,又在此基础上附加了交叉熵项:

    $$ \mathcal{L}_{m}^{v}={\mathcal{L}}_{{\mathrm{ace}}}(\alpha _{m}^{v})+\lambda \mathcal{L}_{{\mathrm{KL}}}^{v}(\alpha _{m}^{v})+\eta \mathcal{L}_{{\mathrm{ce}}}^{v} $$ (15)

    式中$ \eta $为复合损失平衡因子。所以多视图损失为

    $$ {\mathcal{L}}_{s}=\sum\limits_{m=1}^{N}\sum\limits_{v=1}^{V}\mathcal{L}_{m}^{v} $$ (16)

    多视图融合后,本文仍然使用交叉熵损失$ \mathcal{L}_{{\mathrm{ce}}}^{{\mathrm{fusion}}} $来优化融合性能。最后总损失为

    $$ \mathcal{L}={\mathcal{L}}_{s}+\eta \mathcal{L}_{{\mathrm{ce}}}^{{\mathrm{fusion}}} $$ (17)

    本文所提出的可信多视图关联融合算法TMAF具体流程如算法1所示。

    算法1 可信多视图关联融合算法

    输入 脑网络数据集$ {X}_{n} $。

    输出 大脑精神障碍检测结果$ {\tilde{y}}_{n} $。

    1)依次使用E2E、E2N、N2G对$ {X}_{n} $进行卷积得到特征图$ {\boldsymbol{d}}_{\mathrm{FC}}\in \{{\mathrm{R}}_{v}^{64}\}_{v=1}^{V} $;

    2)使用全连接层和Softplus激活函数对$ {\boldsymbol{d}}_{\mathrm{FC}} $的第$ v $个视图进行处理,得到脑网络证据$ e=\{e_{1}^{v}, e_{2}^{v},\cdot \cdot \cdot ,e_{K}^{v}\}_{v=1}^{V} $;

    3)使用全连接层和Softmax激活函数对$ {\boldsymbol{d}}_{\mathrm{FC}} $的第$ v $个视图进行处理,得到脑网络基本信任值$ \zeta =\{\zeta _{1}^{v},\zeta _{2}^{v},\cdot \cdot \cdot ,\zeta _{K}^{v}\}_{v=1}^{V} $;

    4)遍历每个视图$ v $:

    5)通过$ \{\alpha _{k}^{v}\}_{k=1}^{K}=\{e_{k}^{v}\}_{k=1}^{K}+1 $得到狄利克雷分布;

    6)由式(7)和式(8)导出信念质量$ \{b_{k}^{v}\}_{k=1}^{K} $和不确定性质量$ u_{}^{v} $;

    7)由式(10)求得可信度$ \{c_{k}^{v}\}_{k=1}^{K} $;

    8)由式(15)计算损失$ \mathcal{L}_{m}^{v} $并反向传播;

    9)遍历其余视图$ j $,通过式(4)获得视图对互信息$ {I}^{n}({v}^{v};{v}^{j}) $;

    10)由式(5)得到关联总量$ {T}^{n}(v) $;

    11)遍历每个视图$ v $;

    12)通过式(6)获得样本最佳视图$ \hat{v} $;

    13)获取视图$ \hat{v} $对应的值$ u $;

    14)由式(17)计算损失$ \mathcal{L} $并反向传播;

    15)对可信度$ c=\{c_{1}^{v},c_{2}^{v},\cdot \cdot \cdot ,c_{K}^{v}\}_{v=1}^{V} $取平均得到$ \{{c}_{k}\}_{k=1}^{K} $;

    16)通过$ \{{\tilde{e}}_{k}\}_{k=1}^{K}=\{u_{k}\}_{k=1}^{K}\circ \{{c}_{k}\}_{k=1}^{K} $得到加权证据;

    17)返回标签$ {\tilde{y}}_{n} $。

    首先,模型接收脑网络数据$ \{{X}_{n}\}_{n=1}^{N} $,每个样本包含$ V $个视图,将样本$ {X}_{n} $进行3次特定的卷积获得特征图$ {\boldsymbol{d}}_{\mathrm{FC}}\in \{{\mathrm{R}}_{v}^{64}\}_{v=1}^{V} $,经过全连接层和两个激活层后分别得到脑网络证据$ e=\{e_{1}^{v},e_{2}^{v},\cdot \cdot \cdot ,e_{K}^{v}\}_{v=1}^{V} $和脑网络基本信任度$ \zeta =\{\zeta _{1}^{v},\zeta _{2}^{v},\cdot \cdot \cdot , \zeta _{K}^{v}\}_{v=1}^{V} $。然后,通过证据获得狄利克雷分布$ \alpha =\{\alpha _{1}^{v},\alpha _{2}^{v},\cdot \cdot \cdot ,\alpha _{K}^{v}\}_{v=1}^{V} $,并导出信念质量$ b=\{b_{1}^{v},b_{2}^{v},\cdot \cdot \cdot , b_{K}^{v}\}_{v=1}^{V} $和不确定性质量$ \{u_{}^{v}\}_{v=1}^{V} $。然后,直接对证据和基本信任度联合建模得到信任度$ c=\{c_{1}^{v},c_{2}^{v},\cdot \cdot \cdot , c_{K}^{v}\}_{v=1}^{V} $,并求平均得到$ \{{c}_{k}\}_{k=1}^{K} $。遍历其余视图计算每个视图的关联总量$ {T}^{n}(v) $。对于每个样本$ n $,遍历所有视图,根据每个视图的关联总量获取最大总量视图的值,最终得到$ \{u_{k}\}_{k=1}^{K} $。最后,$ \{u_{k}\}_{k=1}^{K} $与信任度$ \{{c}_{k}\}_{k=1}^{K} $融合得到最终的加权证据$ \{{\tilde{e}}_{k}\}_{k=1}^{K} $,选取最大证据量的类别获得分类标签$ {\tilde{y}}_{n} $。步骤4)的时间复杂度为$ O({V}^{2}) $,步骤5)的时间复杂度为$ O(V) $,所以TMAF算法的时间复杂度为$ O(n\cdot ({V}^{2}+V)) $,$ V $为视图数量,所以最终TMAF算法的时间复杂度为$ O(n) $,空间复杂度为$ O(n) $。

    为了证明TMAF算法的有效性,本文进行了多组实验。首先与现有算法对比验证TMAF的先进性,其次,为了验证各模块的有效性进行消融实验,通过参数分析论证其参数的合理性和鲁棒性。本文的实验环境为PC(12th Gen Intel(R) Core(TM) i5-12600KF@3.70 GHz, NVIDIA GeForce RTX 4060 i5-12600KF@3.70 GHz, NVIDIA GeForce RTX 4060 Ti, RAM: 32GB),Windows11企业版操作系统,编程语言为Python,实验工具为JetBrains PyCharm。

    本文采集了两个精神分裂症(Schizophrenia)数据集作为实验数据集,分别为生物医学卓越研究中心数据集(COBRE),湘雅医院数据集(Xiangya)。数据集详细信息如表2所示。数据集均为原始rs-fMRI数据,在采集时,所有受试者均无其他精神疾病,无重大躯体疾病,无MRI禁忌症,要求参与者扫描前禁酒、咖啡、尼古丁并保证充足睡眠,扫描时闭眼放松,减少头动。

    表  2  数据集描述
    Table  2  Dataset descriptions
    序号 数据集 患者数量 正常对照组数量 特征规模
    1 COBRE 53 67 90$ \times $90$ \times $10
    2 Xiangya 83 60 90$ \times $90$ \times $10

    本文采用标准化预处理流程对rs-fMRI数据进行处理。对原始功能影像数据进行时间层校正以消除切片采集时序差异并进行头动校正,利用回波平面成像(echo planar imaging, EPI)标准模板完成空间标准化处理。然后对六自由度头部运动参数、脑脊液及白质信号的平均时间序列去趋势化,对预处理后的BOLD信号施加0.01~0.08 Hz带通滤波器以提取低频振荡特征。经过上述处理流程,每个受试者最终获得包含240个连续时间点的四维功能数据集。基于自动解剖标记(automatic anatomical labelling,AAL)图谱的空间划分策略,将全脑信号解构为90个解剖学定义的感兴趣区域(region of interest, ROI)时间序列,为后续网络分析提供节点特征。针对动态功能连接分析,采用滑动时间窗方法构建多视角脑网络特征。参照Leonardi等[24]提出的动态连接稳定性准则,窗口长度的选择需权衡时间分辨率与信号稳定性,过短窗口易引入高频伪振荡,过长窗口则削弱动态特性捕捉能力。本研究依据重复时间TR=2 000 ms的采集参数,设置窗宽为30TR(60 s)并采用7TR(14 s)步长进行重叠采样,最终从240个时间点中提取10个连续时间窗[25]。由此构建的多时间窗功能连接矩阵形成10个独立的数据视图。

    本文在训练集上训练和验证模型,并在测试集上评估模型。用不同随机种子运行5次。网络架构由PyTorch框架搭建,使用Adam[26]优化器来训练网络,学习率设置为0.00005,epoch设置为2000,batch size设置为60,dropout设置为0.2,权重衰减系数为0.1,LeakyReLU负斜率系数为0.2,分类器维度配置为10,隐藏层单元数为64,输出维度为16。所有log底数设置为$ {\mathrm{e}} $。针对训练初期不能过度受KL散度的影响,而训练后期需要KL散度优化损失的问题,本文逐步增加损失函数正则化项协调因子$ \lambda $的值。复合损失平衡因子$ \eta $设置为0.01。

    本文通过计算准确率ACC(ACC)、召回率SEN(SEN)、特异性SPE(SPE)、精确率PPV(PPV)、阴性预测值NPV(NPV)、F1分数(F1)来评估可信多视图关联融合模型。各评估指标计算公式为

    $$ A_{\mathrm{CC}}=\frac{{N}_{{\mathrm{TP}}}+{N}_{{\mathrm{TN}}}}{{N}_{{\mathrm{TP}}}+{N}_{{\mathrm{TN}}}+{N}_{{\mathrm{FP}}}+{N}_{{\mathrm{FN}}}} $$ (18)
    $$ S_{\mathrm{EN}}=\frac{{N}_{{\mathrm{TP}}}}{{N}_{{\mathrm{TP}}}+{N}_{{\mathrm{FN}}}} $$ (19)
    $$ S_{\mathrm{PE}}=\frac{{N}_{{\mathrm{TN}}}}{{N}_{{\mathrm{TN}}}+{N}_{{\mathrm{FP}}}} $$ (20)
    $$ P_{\mathrm{PV}}=\frac{{N}_{{\mathrm{TP}}}}{{N}_{{\mathrm{TP}}}+{N}_{{\mathrm{FP}}}} $$ (21)
    $$ N_{\mathrm{PV}}=\frac{{N}_{{\mathrm{TN}}}}{{N}_{{\mathrm{TN}}}+{N}_{{\mathrm{FN}}}} $$ (22)
    $$ F_{1}=2\times \frac{P_{\mathrm{PV}}\times S_{\mathrm{EN}}}{P_{\mathrm{PV}}+S_{\mathrm{EN}}} $$ (23)

    式中:$ {N}_{{\mathrm{TP}}} $是真阳性数量,表示标签为正例预测也为正例;$ {N}_\mathrm{TN} $是真阴性数量,表示标签为负例预测也为负例;$ {N}_\mathrm{FP} $是假阳性数量,表示标签为负例预测为正例;$ {N}_\mathrm{FN} $是假阴性数量,表示标签为正例预测为负例。

    ACC表示模型整体正确分类的比例,SEN表示模型对真实患病者的识别能力,SPE表示模型对真实健康人的排除能力,PPV表示预测为患病的受试者中真实患病的比例,NPV表示预测为健康的受试者中真实健康的比例,F1表示模型对正例的综合识别能力。

    2.4.1   对比算法

    本文将所提出的可信多视图关联融合算法TMAF与多组学图卷积网络(MORONET)[27],可信多模态动态融合(MMD)[28],基于动态证据融合的可信多视图分类(TMC)[18],双层深度证据融合(DDEF)[23]和不确定性动态证据融合神经网络(DEF-NNs)[3]进行比较,上述方法简要介绍如下:

    1)MORONET[27]:该方法针对每种组学分别构建GCN模型,整合重塑结果后通过VCDN进行最终的分类预测。

    2)MMD[28]:该方法通过稀疏门控跟踪模态内特征变化,并基于监督信号校准模态置信度实现多模态动态融合。

    3)TMC[18]:该方法结合贝叶斯推断与信任函数理论,在特征建模和决策融合中实现有效信息提取和自适应校准,通过双维度优化机制提升了异常视角识别和信息利用率。

    4)DDEF[23]:该方法通过分层的证据校准与跨模态信任传递机制实现多模态的决策推理。

    5)DEF-NNs[3]:该方法利用特定卷积提取动态功能连接的特征,并基于证据理论量化时间窗级置信度,然后通过动态调整证据权重,抑制异常时间窗影响,最后,采用Dempster组合规则融合多窗口证据,实现精神疾病诊断。

    2.4.2   性能对比分析

    本文对COBRE和Xiangya两个数据集上的6种方法的性能进行对比分析,表3给出了对比实验结果。

    表  3  对比实验结果
    Table  3  Comparison of experimental results %
    数据集 方法 ACC SEN SPE PPV NPV F1
    COBRE MORONET[27] 77.39$ \pm $1.95 89.23$ \pm $4.21 62.00$ \pm $8.37 75.55$ \pm $3.30 82.06$ \pm $4.03 81.70$ \pm $1.14
    MMD[28] 78.26$ \pm $5.33 80.00$ \pm $10.32 76.00$ \pm $16.73 82.53$ \pm $8.63 75.77$ \pm $7.47 80.55$ \pm $4.81
    TMC[18] 83.48$ \pm $4.76 83.08$ \pm $10.03 84.00$ \pm $8.94 87.57$ \pm $5.14 80.35$ \pm $8.61 84.85$ \pm $5.05
    DDEF[23] 85.22$ \pm $3.89 83.08$ \pm $8.43 88.00$ \mathbf{\pm } $10.95 90.83$ \mathbf{\pm } $7.13 80.88$ \pm $7.28 86.33$ \pm $3.69
    DEF-NNs[3] 86.96$ \pm $3.07 89.23$ \pm $8.77 84.00$ \pm $11.40 88.72$ \pm $7.18 87.22$ \pm $9.13 88.49$ \pm $3.10
    TMAF 89.56$ \mathbf{\pm } $2.38 92.31$ \mathbf{\pm } $0.00 86.00$ \pm $5.48 89.67$ \pm $3.61 89.56$ \mathbf{\pm } $0.61 90.94$ \mathbf{\pm } $1.87
    Xiangya MORONET[27] 69.29$ \pm $4.79 40.00$ \pm $9.13 91.25$ \mathbf{\pm } $5.60 78.81$ \pm $14.19 67.08$ \pm $3.58 52.41$ \pm $8.75
    MMD[28] 72.29$ \pm $1.23 55.00$ \pm $9.50 85.81$ \pm $8.02 76.70$ \pm $8.24 71.20$ \pm $2.57 63.14$ \pm $4.55
    TMC[18] 80.71$ \pm $4.07 75.00$ \pm $11.78 85.00$ \pm $5.59 79.42$ \pm $5.95 82.55$ \pm $7.00 76.62$ \pm $5.93
    DDEF[23] 82.85$ \pm $4.65 80.00$ \pm $7.45 85.00$ \pm $8.39 80.94$ \pm $8.99 85.24$ \pm $4.87 80.05$ \pm $4.79
    DEF-NNs[3] 85.71$ \pm $3.58 80.00$ \pm $12.64 90.00$ \pm $3.42 86.07$ \mathbf{\pm } $2.63 86.41$ \pm $7.22 82.34$ \pm $5.93
    TMAF 87.86$ \mathbf{\pm } $1.96 91.67$ \mathbf{\pm } $0.00 85.00$ \pm $3.42 82.20$ \pm $3.31 93.14$ \mathbf{\pm } $0.26 86.65$ \mathbf{\pm } $1.85
    注:加粗表示该结果最好。

    TMAF算法在综合性能上表现最优。在两个数据集中,TMAF的ACC分别为89.56%、87.86%,较次优的DEF-NNs算法分别提高2.6、2.15百分点,相比MORONET算法分别提高12.17、18.57百分点。此外,本算法的F1分数分别为90.94%、86.65%,同样均居首位,比其他算法至少高出2.45、4.31百分点。这说明本算法的整体表现较好。本算法在SEN上也表现突出,优于所有对比算法。在COBRE数据集中达到92.31%,比次优的DEF-NNs算法和MORONET算法提高了3.08百分点,在Xiangya数据集中更加突出,达到了91.67%,至少优于其他算法11.67百分点。这表明本算法在识别阳性样本,即疾病患者时具有极高的稳定性和可靠性。虽在SPE方面分别略低于COBRE数据集中DDEF算法的88%和Xiangya数据集中MORONET算法的91.25%,但SEN的显著优势在疾病筛查等实际应用场景中更加关键。由于数据集正负样本分布的差异,本算法在PPV上分别略低于DDEF的90.83%和DEF-NNs的86.07%,但NPV指标在两个数据集上均高于其他所有对比算法,且在Xiangya数据集上更为显著,分别为89.56%和93.14%,相比其他算法至少提高2.34、6.73百分点。此外,本算法的鲁棒性更强,实验结果受数据随机性影响较小。在COBRE数据集上本算法ACC标准差为2.38%,显著低于MMD算法的5.33%和TMC算法的4.76%,在Xiangya数据集上ACC标准差为1.96%,同样优于MORONET算法的4.79%和DDEF算法的4.65%。

    上述实验结果与分析表明本文所提出的可信多视图关联融合算法TMAF在精神分裂症的识别中具有良好效果,优于现有算法。

    2.4.3   消融实验

    消融实验旨在验证所提出的可信多视图关联融合算法TMAF中各个模块的有效性。通过逐步移除损失函数$ {\mathcal{L}}_\text{ce} $($ {\text{NoLoss}}_\text{ce} $)、动态信任评估模块(NoTrust)、损失函数$ \mathcal{L}_\text{ce}^\text{fusion} $($ \text{NoLoss}_\text{ce}^\text{fusion} $)、关联融合模块(NoFusion)明确各模块贡献。

    图45给出了TMAF模型及其消融版本在COBRE和Xiangya两个数据集上的消融实验结果。

    图  4  COBRE数据集消融实验结果
    Fig.  4  Results of ablation experiments on COBRE dataset
    下载: 全尺寸图片
    图  5  Xiangya数据集消融实验结果
    Fig.  5  Results of ablation experiments on Xiangya dataset
    下载: 全尺寸图片

    本文选用3个指标对各消融版本进行分析,并利用柱状图进行可视化,纵轴为指标,横轴为各消融版本。在COBRE数据集中,$ {\text{NoLoss}}_\text{ce} $方法的ACC和F1都略低于TMAF,SEN虽与TMAF相等,但波动较大,而在Xiangya数据集中F1、SEN均低于TMAF。由此可见,本文附加的损失函数交叉熵项$ {\mathcal{L}}_\text{ce} $起到了模型性能调优的作用。NoTrust方法在两个数据集的3个指标中仅在Xiangya数据集上SEN无明显变化,其余均显著降低,说明动态信任评估模块在模型的结果校正过程中发挥了重要作用。$ \text{NoLoss}_\text{ce}^\text{fusion} $方法在两个数据集上的消融结果表明损失函数$ \mathcal{L}_\text{ce}^\text{fusion} $也提高了模型的性能。TMAF方法联合使用了损失函数交叉熵项$ {\mathcal{L}}_\text{ce} $和损失函数$ \mathcal{L}_\text{ce}^\text{fusion} $达到了最好的效果,说明这两种损失函数组合使用,对模型性能优化调优效果最好。移除了关联融合模块的NoFusion方法在两个数据集上效果显著降低,多个指标达到历史最低。这个现象表明关联融合模块能充分表示视图信息,有效提高模型的分类准确度和综合性能。

    2.4.4   参数分析

    本文在COBRE和Xiangya两个数据集上采用ACC、F1和SEN 3个指标进行参数分析实验来评估参数的敏感性,如图6所示。

    图  6  COBRE和Xiangya数据集参数分析
    Fig.  6  Parameter analysis of COBRE and Xiangya datasets
    下载: 全尺寸图片

    横轴为复合损失平衡因子$ \eta $的不同取值,每次以10倍的比例步长递增,纵轴为指标,均为5次运行结果的平均值。参数$ \eta $越大,则表示损失函数$ {\mathcal{L}}_\text{ce} $和$ \mathcal{L}_\text{ce}^\text{fusion} $在模型中发挥的作用越大。从图中可以看出参数$ \eta $在COBRE和Xiangya两个数据集上ACC、F1和SEN均在$ [1 \times 10^{-4},1] $中保持稳定并达到峰值,表明模型对参数在此范围内具有强鲁棒性。随着$ \eta $不断降低,两个数据集上3个指标都呈现下降趋势,但从整体来看波动不大,这个现象表明模型虽有波动但相对稳定,同时也说明损失函数$ {\mathcal{L}}_\text{ce} $和$ \mathcal{L}_\text{ce}^\text{fusion} $在模型中发挥的作用有限,当达到一定阈值时便保持稳定。为了保证TMAF模型的性能达到最好,本文将参数$ \eta $设置为0.01。

    2.4.5   可解释性分析

    为了挖掘与脑疾病密切相关的动态功能连接,本文利用反向传播中获得的重要信息进行识别,选取连接强度最高的部分,在脑区图中进行可视化展示,其中每个节点代表一个脑区,节点之间的连线则表示两个脑区间的重要功能连接。图7给出了动态脑网络于解释性分析。

    图  7  动态脑网络可解释性分析
    Fig.  7  Interpretability of dynamic brain networks
    下载: 全尺寸图片

    图7中可以发现左侧中央后回、左侧楔前叶、左侧角回、右侧缘上回和右侧角回(分别对应图7中的PCG.L、PCUN.L、ANG.L、ANG.R和SMG.R)在10个视图中均为重要脑区。这些都是顶叶的重要组成部分,涉及感觉整合、自我意识、语言处理等功能。目前大量研究表明顶叶的结构和功能异常可能在精神分裂症的发病机制和症状表现中发挥重要作用。例如,Zhou等[29]研究显示精神分裂症患者的顶叶体积显著减少,表明顶叶结构异常可能在精神分裂症的发病机制中发挥作用。Hahn等[30]发现精神分裂症患者的工作记忆缺陷与顶叶皮层功能障碍密切相关。顶叶皮层的活动减少可能导致工作记忆存储能力的下降,进一步影响认知功能。Das等[31]探讨了顶叶与精神分裂症和双相情感障碍中解体症状之间的关系,结果表明,顶叶与大脑其他区域之间的功能连接障碍可能在解体症状的发生中起关键作用。以上结果证明本文方法捕捉到了与疾病相关的区域。

    2.4.6   收敛性分析

    本小节通过性能变化曲线对TMAF损失函数的收敛特性进行分析。图8给出了所提出方法在COBRE和Xiangya两个独立数据集上训练过程中损失函数随训练轮次变化的收敛情况。图中横坐标表示训练轮次,纵坐标表示损失函数值,其中黑色曲线和红色曲线分别表征了TMAF模型在COBRE和Xiangya数据集上的收敛轨迹。

    图  8  损失函数收敛性分析
    Fig.  8  Analysis of loss function convergence
    下载: 全尺寸图片

    综合分析表明,本文提出的TMAF方法具有以下几个显著的收敛特性:1)损失函数具有良好的凸性特征,这一数学特性使得梯度下降算法能够有效地引导模型参数向全局最优解方向更新,不仅确保了收敛过程的稳定性,而且显著提升了收敛速度。2)通过设计模型架构和参数初始化,进一步优化了训练,使得损失函数在训练初期就能够快速下降,有效避免了训练停滞或收敛缓慢的问题。3)在训练过程中动态调整参数策略,这一设计使得模型能够以更加高效的方式逼近最优解,表现出卓越的收敛效率。

    以上分析表明所提出的模型在两个不同的数据集上均表现出快速、稳定且高效的收敛特性,这一优势充分证明了该方法在实际应用中的可靠性和有效性。

    本文提出基于可信多视图关联融合的脑网络分析算法,旨在解决脑网络分析中因多视图数据异质性导致的不确定性和单一结果存在的不可信性等问题。首先,本文引入特定的三级动态脑网络特征提取模块,逐级提取每个视图的有效证据;然后设计了关联融合模块,在多视图融合时进行取舍,只选择最能代表样本的视图,减少了低质量信息干扰;接着构建动态信任评估机制对结果进行进一步校正,有效提高模型的分类可信度。最后该算法在两个精神分裂症数据集上得到了有效性验证。本团队会进一步研究多视图动态脑网络分析中存在的异质性问题,提高分类性能,并考虑层级信任机制,进一步增加模型可信性,同时考虑树突神经网络结构。

  • 图  1   可信多视图关联融合模型

    Fig.  1   Trusted multi-view association fusion model

    下载: 全尺寸图片

    图  2   多视图融合模块

    Fig.  2   Multi-view association fusion module

    下载: 全尺寸图片

    图  3   动态信任评估模块

    Fig.  3   Dynamic trust assessment module

    下载: 全尺寸图片

    图  4   COBRE数据集消融实验结果

    Fig.  4   Results of ablation experiments on COBRE dataset

    下载: 全尺寸图片

    图  5   Xiangya数据集消融实验结果

    Fig.  5   Results of ablation experiments on Xiangya dataset

    下载: 全尺寸图片

    图  6   COBRE和Xiangya数据集参数分析

    Fig.  6   Parameter analysis of COBRE and Xiangya datasets

    下载: 全尺寸图片

    图  7   动态脑网络可解释性分析

    Fig.  7   Interpretability of dynamic brain networks

    下载: 全尺寸图片

    图  8   损失函数收敛性分析

    Fig.  8   Analysis of loss function convergence

    下载: 全尺寸图片

    表  1   符号说明

    Table  1   Symbol description

    符号 含义
    $ V $ 视图总数
    $ v $ 视图索引
    $ {v}^{i} $ 第$ i $个视图
    $ {v}^{j} $ 第$ j $个视图
    $ {v}^{\max } $ 最大关联总量视图
    $ N $ 样本总数
    $ n $ 第$ n $个样本
    $ K $ 类别总数
    $ k $ 第$ k $类
    $ s $ 第$ s $个滤波器
    $ (\gamma ,\tau ) $ 矩阵索引位置
    $ h $ 第$ h $个通道
    $ M $ 外层求和上限
    $ \varDelta $ 通道求和上限
    $ {\boldsymbol{A}} $ 初始矩阵
    $ a $ 视图$ i $的类别取值
    $ b $ 视图$ j $的类别取值

    表  2   数据集描述

    Table  2   Dataset descriptions

    序号 数据集 患者数量 正常对照组数量 特征规模
    1 COBRE 53 67 90$ \times $90$ \times $10
    2 Xiangya 83 60 90$ \times $90$ \times $10

    表  3   对比实验结果

    Table  3   Comparison of experimental results %

    数据集 方法 ACC SEN SPE PPV NPV F1
    COBRE MORONET[27] 77.39$ \pm $1.95 89.23$ \pm $4.21 62.00$ \pm $8.37 75.55$ \pm $3.30 82.06$ \pm $4.03 81.70$ \pm $1.14
    MMD[28] 78.26$ \pm $5.33 80.00$ \pm $10.32 76.00$ \pm $16.73 82.53$ \pm $8.63 75.77$ \pm $7.47 80.55$ \pm $4.81
    TMC[18] 83.48$ \pm $4.76 83.08$ \pm $10.03 84.00$ \pm $8.94 87.57$ \pm $5.14 80.35$ \pm $8.61 84.85$ \pm $5.05
    DDEF[23] 85.22$ \pm $3.89 83.08$ \pm $8.43 88.00$ \mathbf{\pm } $10.95 90.83$ \mathbf{\pm } $7.13 80.88$ \pm $7.28 86.33$ \pm $3.69
    DEF-NNs[3] 86.96$ \pm $3.07 89.23$ \pm $8.77 84.00$ \pm $11.40 88.72$ \pm $7.18 87.22$ \pm $9.13 88.49$ \pm $3.10
    TMAF 89.56$ \mathbf{\pm } $2.38 92.31$ \mathbf{\pm } $0.00 86.00$ \pm $5.48 89.67$ \pm $3.61 89.56$ \mathbf{\pm } $0.61 90.94$ \mathbf{\pm } $1.87
    Xiangya MORONET[27] 69.29$ \pm $4.79 40.00$ \pm $9.13 91.25$ \mathbf{\pm } $5.60 78.81$ \pm $14.19 67.08$ \pm $3.58 52.41$ \pm $8.75
    MMD[28] 72.29$ \pm $1.23 55.00$ \pm $9.50 85.81$ \pm $8.02 76.70$ \pm $8.24 71.20$ \pm $2.57 63.14$ \pm $4.55
    TMC[18] 80.71$ \pm $4.07 75.00$ \pm $11.78 85.00$ \pm $5.59 79.42$ \pm $5.95 82.55$ \pm $7.00 76.62$ \pm $5.93
    DDEF[23] 82.85$ \pm $4.65 80.00$ \pm $7.45 85.00$ \pm $8.39 80.94$ \pm $8.99 85.24$ \pm $4.87 80.05$ \pm $4.79
    DEF-NNs[3] 85.71$ \pm $3.58 80.00$ \pm $12.64 90.00$ \pm $3.42 86.07$ \mathbf{\pm } $2.63 86.41$ \pm $7.22 82.34$ \pm $5.93
    TMAF 87.86$ \mathbf{\pm } $1.96 91.67$ \mathbf{\pm } $0.00 85.00$ \pm $3.42 82.20$ \pm $3.31 93.14$ \mathbf{\pm } $0.26 86.65$ \mathbf{\pm } $1.85
    注:加粗表示该结果最好。
  • [1] LI Xiaoxiao, ZHOU Yuan, DVORNEK N, et al. BrainGNN: interpretable brain graph neural network for fMRI analysis[J]. Medical image analysis, 2021, 74: 102233. doi: 10.1016/j.media.2021.102233
    [2] DONG Changxu, SUN Dengdi, YU Zhenda, et al. Multi-view brain network classification based on adaptive graph isomorphic information bottleneck mamba[J]. Expert systems with applications, 2025, 267: 126170. doi: 10.1016/j.eswa.2024.126170
    [3] DING Weiping, HOU Tao, HUANG Jiashuang, et al. Dynamic evidence fusion neural networks with uncertainty theory and its application in brain network analysis[J]. Information sciences, 2025, 691: 121622. doi: 10.1016/j.ins.2024.121622
    [4] KHOSLA M, JAMISON K, NGO G H, et al. Machine learning in resting-state fMRI analysis[J]. Magnetic resonance imaging, 2019, 64: 101−121. doi: 10.1016/j.mri.2019.05.031
    [5] ZHAO Cui, HUANG Weijie, FENG Feng, et al. Abnormal characterization of dynamic functional connectivity in Alzheimer’s disease[J]. Neural regeneration research, 2022, 17(9): 2014−2021. doi: 10.4103/1673-5374.332161
    [6] WANG Junqi, LI Hailong, CECIL K M, et al. DFC-Igloo: a dynamic functional connectome learning framework for identifying neurodevelopmental biomarkers in very preterm infants[J]. Computer methods and programs in biomedicine, 2024, 257: 108479. doi: 10.1016/j.cmpb.2024.108479
    [7] 高轩瑞, 曹进德, 张金壬. 一种基于深度学习的心电图分类方法[J]. 南通大学学报(自然科学版), 2023, 22(3): 17−25.

    GAO Xuanrui, CAO Jinde, ZHANG Jinren. A method of ECG classification based on deep learning[J]. Journal of Nantong University (natural science edition), 2023, 22(3): 17−25.
    [8] 王茹, 孙正, 姚越. 抑制心血管图像序列中运动伪影的无监督深度学习方法[J]. 智能系统学报, 2025(4): 984−998. doi: 10.11992/tis.202408014

    WANG Ru, SUN Zheng, YAO Yue. Unsupervised deep learning method for suppressing motion artifacts in cardiac vascular image sequences[J]. CAAI transactions on intelligent systems, 2025(4): 984−998. doi: 10.11992/tis.202408014
    [9] 王闪闪, 巩长庆, 秦华锋, 等. 基于深度学习的K近邻图迭代静脉识别算法研究[J]. 智能系统学报, 2024, 19(5): 1149−1156.

    WANG Shanshan, GONG Changqing, QIN Huafeng, et al. Vein recognition algorithm combining K-nearest neighbor and graph iterative based on deep learning[J]. CAAI transactions on intelligent systems, 2024, 19(5): 1149−1156.
    [10] KAWAHARA J, BROWN C J, MILLER S P, et al. BrainNetCNN: Convolutional neural networks for brain networks; towards predicting neurodevelopment[J]. NeuroImage, 2017, 146: 1038−1049. doi: 10.1016/j.neuroimage.2016.09.046
    [11] CHU Ying, WANG Guangyu, CAO Liang, et al. Multi-scale graph representation learning for autism identification with functional MRI[J]. Frontiers in neuroinformatics, 2022, 15: 802305. doi: 10.3389/fninf.2021.802305
    [12] YU Zhiwen, DONG Ziyang, YU Chenchen, et al. A review on multi-view learning[J]. Frontiers of computer science, 2024, 19(7): 197334.
    [13] CHAO Guoqing, SUN Shiliang. Consensus and complementarity based maximum entropy discrimination for multi-view classification[J]. Information sciences, 2016, 367/368: 296–310.
    [14] LIU Bo, CHEN Xiaodong, XIAO Yanshan, et al. An efficient dictionary-based multi-view learning method[J]. Information sciences, 2021, 576: 157−172. doi: 10.1016/j.ins.2021.06.069
    [15] LIN Yijie, GOU Yuanbiao, LIU Xiaotian, et al. Dual contrastive prediction for incomplete multi-view representation learning[J]. IEEE transactions on pattern analysis and machine intelligence, 2023, 45(4): 4447−4461. doi: 10.1109/tpami.2022.3197238
    [16] 顾苏杭, 李晨阳, 朱培逸. 人类视觉启发的模糊卷积神经网络[J/OL]. 南通大学学报(自然科学版), 1–8. [2025−08−30]. https://link.cnki.net/urlid/32.1755.n.20250513.1555.002.

    GU Suhang, LI Chenyang, ZHU Peiyi. Fuzzy convolutional neural network inspired by human vision [J/OL]. Journal of Nantong University (natural science edition), 1−8. [2025−08−30]. https://link.cnki.net/urlid/32.1755.n.20250513.1555.002.
    [17] 冯小荣, 惠康华, 柳振东. 基于卷积特征和贝叶斯分类器的人脸识别[J]. 智能系统学报, 2018, 13(5): 769−775. doi: 10.11992/tis.201706052

    FENG Xiaorong, HUI Kanghua, LIU Zhendong. Face recognition based on convolution feature and Bayes classifier[J]. CAAI transactions on intelligent systems, 2018, 13(5): 769−775. doi: 10.11992/tis.201706052
    [18] HAN Zongbo, ZHANG Changqing, FU Huazhu, et al. Trusted multi-view classification with dynamic evidential fusion[J]. IEEE transactions on pattern analysis and machine intelligence, 2023, 45(2): 2551−2566. doi: 10.1109/TPAMI.2022.3171983
    [19] HUANG Haojian, LIU Zhe, LETCHMUNAN S, et al. Evidential deep partial multi-view classification with discount fusion[EB/OL]. (2024−08−23)[2025−07−10]. https://arxiv.org/abs/2408.13123.
    [20] 孙林, 梁娜, 徐久成. 基于邻域互信息与K-means特征聚类的特征选择[J]. 智能系统学报, 2024, 19(4): 983−996. doi: 10.11992/tis.202208012

    SUN Lin, LIANG Na, XU Jiucheng. Feature selection using neighborhood mutual information and feature clustering with K-means[J]. CAAI transactions on intelligent systems, 2024, 19(4): 983−996. doi: 10.11992/tis.202208012
    [21] WONG T T. Generalized dirichlet distribution in Bayesian analysis[J]. Applied mathematics and computation, 1998, 97(2/3): 165−181. doi: 10.1016/s0096-3003(97)10140-0
    [22] JØSANG A, HANKIN R. Interpretation and fusion of hyper opinions in subjective logic[C]//2012 15th International Conference on Information Fusion. Singapore: IEEE, 2012: 1225–1232.
    [23] SHAO Zhimin, DOU Weibei, PAN Yu. Dual-level Deep Evidential Fusion: integrating multimodal information for enhanced reliable decision-making in deep learning[J]. Information fusion, 2024, 103: 102113. doi: 10.1016/j.inffus.2023.102113
    [24] LEONARDI N, VAN DE VILLE D. On spurious and real fluctuations of dynamic functional connectivity during rest[J]. NeuroImage, 2015, 104: 430−436. doi: 10.1016/j.neuroimage.2014.09.007
    [25] WANG Mingliang, HUANG Jiashuang, LIU Mingxia, et al. Modeling dynamic characteristics of brain functional connectivity networks using resting-state functional MRI[J]. Medical image analysis, 2021, 71: 102063. doi: 10.1016/j.media.2021.102063
    [26] KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. (2014−12−22)[2025−07−10]. https://arxiv.org/abs/1412.6980.
    [27] WANG Tongxin, SHAO Wei, HUANG Zhi, et al. MOGONET integrates multi-omics data using graph convolutional networks allowing patient classification and biomarker identification[J]. Nature communications, 2021, 12: 3445. doi: 10.1038/s41467-021-23774-w
    [28] HAN Zongbo, YANG Fan, HUANG Junzhou, et al. Multimodal dynamics: dynamical fusion for trustworthy multimodal classification[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022: 20675–20685.
    [29] ZHOU Shiyu, SUZUKI M, TAKAHASHI T, et al. Parietal lobe volume deficits in schizophrenia spectrum disorders[J]. Schizophrenia research, 2007, 89(1/2/3): 35−48. doi: 10.1016/j.schres.2006.08.032
    [30] HAHN B, ROBINSON B M, LEONARD C J, et al. Posterior parietal cortex dysfunction is central to working memory storage and broad cognitive deficits in schizophrenia[J]. The journal of neuroscience, 2018, 38(39): 8378−8387. doi: 10.1523/JNEUROSCI.0913-18.2018
    [31] DAS T K, KUMAR J, FRANCIS S, et al. Parietal lobe and disorganisation syndrome in schizophrenia and psychotic bipolar disorder: a bimodal connectivity study[J]. Psychiatry research: neuroimaging, 2020, 303: 111139. doi: 10.1016/j.pscychresns.2020.111139
WeChat 点击查看大图
图(8)  /  表(3)
出版历程
  • 收稿日期:  2025-07-22
  • 网络出版日期:  2025-12-25

目录

    /

    返回文章
    返回