Loading [MathJax]/jax/output/HTML-CSS/jax.js

基于偏序关系的多视图多粒度图表示学习框架

肖添龙 徐计 王国胤

肖添龙, 徐计, 王国胤. 基于偏序关系的多视图多粒度图表示学习框架 [J]. 智能系统学报, 2025, 20(1): 243-254. doi: 10.11992/tis.202406010
引用本文: 肖添龙, 徐计, 王国胤. 基于偏序关系的多视图多粒度图表示学习框架 [J]. 智能系统学报, 2025, 20(1): 243-254. doi: 10.11992/tis.202406010
XIAO Tianlong, XU Ji, WANG Guoyin. A multi-view and multi-granularity graph representation learning framework based on partial order relations [J]. CAAI Transactions on Intelligent Systems, 2025, 20(1): 243-254. doi: 10.11992/tis.202406010
Citation: XIAO Tianlong, XU Ji, WANG Guoyin. A multi-view and multi-granularity graph representation learning framework based on partial order relations [J]. CAAI Transactions on Intelligent Systems, 2025, 20(1): 243-254. doi: 10.11992/tis.202406010

基于偏序关系的多视图多粒度图表示学习框架

doi: 10.11992/tis.202406010
基金项目: 国家自然科学基金项目(62366008, 61966005, 62221005).
详细信息
    作者简介:

    肖添龙,硕士研究生,主要研究方向为图神经网络、粒计算和机器学习。E-mail:gs.tlxiao22@gzu.edu.cn;

    徐计,特聘教授,博士,主要研究方向为数据挖掘、粒计算和机器学习。主持国家自然科学基金项目2项,主持大型互联网企业横向项目2项,出版学术专著1部,发表学术论文20余篇。E-mail:jixu@gzu.edu.cn;

    王国胤,教授,博士生导师,国家级人才,重庆师范大学校长。主要研究方向为粗糙集、粒计算、数据挖掘、认知计算、大数据、人工智能。曾任国际粗糙集学会(IRSS)理事长,现任中国人工智能学会(CAAI)副理事长、中国计算机学会(CCF)理事、重庆市人工智能学会(CQAAI)理事长,IRSS/CAAI/CCF会士。获国内外发明专利授权20余项,出版学术专著和教材20多部(含编著),发表学术论文300余篇,论著被他人引用10 000多次。E-mail:wanggy@cqupt.edu.cn.

    通讯作者:

    徐计. E-mail:jixu@gzu.edu.cn.

  • 中图分类号: TP391

A multi-view and multi-granularity graph representation learning framework based on partial order relations

  • 摘要: 图池化作为图神经网络中重要的组件,在获取图的多粒度信息的过程中扮演了重要角色。而当前的图池化操作均以平等地位看待数据点,普遍未考虑利用邻域内数据之间的偏序关系,从而造成图结构信息破坏。针对此问题,本文提出一种基于偏序关系的多视图多粒度图表示学习框架(multi-view and multi-granularity graph representation learning based on partial order relationships, MVMGr-PO),它通过从节点特征视图、图结构视图以及全局视图对节点进行综合评分,进而基于节点之间的偏序关系进行下采样操作。相比于其他图表示学习方法,MVMGr-PO可以有效地提取多粒度图结构信息,从而可以更全面地表征图的内在结构和属性。此外,MVMGr-PO可以集成多种图神经网络架构,包括GCN(generative adversarial network)、GAT(graph attention networks)以及GraphSAGE(graph sample and aggregate)等。通过在6个数据集上进行实验评估,与现有基线模型相比,MVMGr-PO在分类准确率上有明显提升。

     

    Abstract: Graph pooling, as a crucial component of graph neural networks (GNNs), plays a vital role in capturing multi-granularity information of graphs. However, current graph pooling operations typically treat data points equally, often neglecting the partial order relationships among data within neighborhoods, which leads to the disruption of graph structural information. To address this issue, we propose a novel framework for multi-view and multi-granularity graph representation learning based on partial order relationships, named MVMGr-PO. This framework comprehensively scores nodes from the perspectives of node feature view, graph structure view, and global view, and then performs down-sampling operations based on the partial order relationships among nodes. Compared with other graph representation learning methods, MVMGr-PO effectively extracts multi-granularity graph structural information, thus providing a more comprehensive representation of the intrinsic structure and attributes of the graph. Additionally, MVMGr-PO can integrate various graph neural network (GNN) architectures, including generative adversarial network (GCN), graph attention networks (GAT), and graph sample and aggregate (GraphSAGE). Experimental evaluations on six datasets demonstrate that compared with existing baseline models, MVMGr-PO significantly improves classification accuracy.

     

  • 过去的主流深度学习框架主要处理欧几里得空间的数据,如计算机视觉[1-2]、自然语言处理[3]等,对其进行特征学习和预测。现如今,非欧几里得空间存在大量数据,例如社交网络、分子结构等,其内部通过大量的节点和链接进行表示。而对于图这种非结构化数据而言,其内部的拓扑结构以及非欧几里得性质难以使用欧几里得空间模型进行表示。因此,为有效地学习和处理图数据,需要探索新的深度学习方法,使其能够适应非欧几里得空间中的图结构,从而拓宽深度学习的应用领域,如社区网络分析[4]、蛋白质结构预测[5]、推荐系统[6]等。图表示学习是这一领域中的一个重要方向,它旨在解决如何在非欧几里得空间中捕捉和表达图数据。

    近年来,图神经网络(graph neural networks,GNNs)[7]发展迅速,其主要思想是通过逐层的消息传递和聚合来捕捉图结构的信息。它采用表示学习的思想,将节点表示为一个向量,该向量捕捉了节点的特征及其邻域的拓扑结构。通过逐层的消息传递与聚合,GNNs能够捕捉从局部到全局的广泛信息,实现对图数据的全面分析。其学习到的节点表示被广泛用于各种图分析任务,如节点分类[810]、连接预测[11]以及图分类[12]等。

    单层的GNNs聚合了节点的一阶邻域信息,随着层数的增加,GNNs可以捕捉到更广泛的邻域信息,但是也可能会产生过平滑问题,特别是在节点分类任务中,过平滑问题将导致模型性能大幅下降。此外,随着层数增加,单个节点嵌入向量的计算量将呈指数级增加。而在大数据时代的背景下,图中的节点以及边的数量非常庞大,这使得GNNs的原始实现在大规模数据上变得不可行。对此,研究者在模型架构、采样策略、聚合技术等方面进行设计,在一定程度上缓解了这种局面,例如基于改进采样策略的GraphSAGE (graph sample and aggregate)[13]和Cluster-GCN (cluster generative adversarial network)[14]等模型。然而,这些方法总是受限于计算资源和模型复杂度,对于大规模图数据的处理仍然存在挑战。

    在图分析中,了解社区结构的层次性对于理解图的组织和特性至关重要。社区可被视为图的层次结构,其中节点形成了具有内在联系的子图。然而,对于大规模的图数据,处理其内部复杂的层次结构具有挑战性。为了应对这一挑战,分层池化方法成为一种有效的技术手段。分层池化可以根据粗化的策略大致分为节点聚合池化[15-16]以及节点丢弃池化[1719]。节点聚合池化是将细粒度图的节点进行聚合从而形成粗粒度图的节点,具体来说主要分2步——获取聚类分配矩阵、使用聚类分配矩阵获取粗粒度图,而节点丢弃池化主要分3步——节点分数评估、节点选择、使用选择的节点形成粗粒度图。尽管现有的分层池化方法为处理大规模图数据提供了有效的解决方案,但它们也存在一些缺点。例如,节点聚合池化在下采样过程中,相似节点的聚合可能会改变原始图的拓扑结构,导致图的整体拓扑结构发生变化。这种拓扑结构的改变可能会影响到后续图分析任务的准确性和可靠性。而节点丢弃池化在下采样过程中,使用固定的池化率会导致对所有节点的处理方式一致,无法充分考虑到节点的重要性差异,从而可能导致重要节点被过度丢弃或者不重要的节点被保留,最终影响了图的表征质量。

    为了解决上述问题,本文提出一种基于偏序关系的多视图多粒度图表示学习框架(a multi-view and multi-granularity graph representation learning framework based on partial order relations,MVMGr-PO)。它从节点特征视图、图结构视图以及全局视图分别对节点进行评分,再使用注意力机制计算权重对3种视图的评分进行融合,进一步提高模型对节点重要性评估的准确性和鲁棒性。随后,基于节点之间的偏序关系自适应地确定关键节点而无需指定池化率。这使得MVMGr-PO同时继承节点聚合以及节点丢失池化的优点,同时避免了图结构破坏、过度丢弃以及不重要的节点被保留的问题。通过这种自适应地确定关键节点的方法,模型能够更加灵活地适应不同图数据的特点,从而提高模型在图分析任务中的性能和泛化能力。

    最近,多粒度图表示学习[20]的研究领域经历了迅速的发展,其目标是探索如何更好地捕捉图数据的多尺度信息,从而提高图表示学习任务的性能和可解释性。分层池化方法作为一种强大的工具,已经在多粒度图表示学习领域展现出巨大的潜力。该方法旨在通过层次化的聚合和抽象图中的节点信息,来捕捉图数据的多尺度特性。分层池化可以根据粒化的方式分为节点聚合池化和节点丢弃池化。节点聚合池化和节点丢弃池化作为分层池化方法的两个重要分支,在多粒度图表示学习领域中扮演着至关重要的角色。

    1) 节点聚合池化。节点聚合池化将池化看作是节点聚类分配问题,将细粒度层的节点进行聚合生成粗粒度层的节点。现有的各种节点聚合池化方法的主要区别在于聚类分配矩阵的获取方式不同。DIFFPOOL (differentiable pooling)[15]使用GNNs生成可微分的聚类分配矩阵S,实现将节点软分配到各个类簇。此外DIFFPOOL引入辅助链接预测任务以及熵正则化使其更容易训练。而MgPool[21]获取聚类分配矩阵S使用多层感知机 (multi-layer perceptron,MLP),同样将节点软分配到各个类簇。MILE (multi-level embedding)[22]采用结构等价匹配 (structural equivalence matching,SEM)和归一化重边匹配 (normalized heavy edge matching,NHEM)对图进行逐层粒化,在最粗糙的图上使用现有的嵌入技术进行嵌入计算。MIVS-Pool(maximal independent vertex set pooling)[23]使用图卷积网络(GCN)[24]对每个节点进行评分,然后选择一个最大独立集的节点作为粗粒度节点,并将其余节点分配给粗粒度节点以形成簇,从而获得聚类分配矩阵。SEP (structural entropy guided graph hierarchical pooling)[25]通过结构熵最小化,可以将图的层次结构解码为相应的编码树,将噪声或随机变化引起的扰动最小化,从而根据编码树获取聚类分配矩阵。而后续处理基本上都是通过使用聚类分配矩阵计算出粗粒度层的特征矩阵和邻接矩阵,从而完成图粗化。

    2) 节点丢弃池化。与节点聚合池化不同的是,节点丢弃池化不会将节点聚合成更粗粒度的节点,而是选择性地丢弃一部分节点,剩余节点构成粗粒度图的节点。现有的各种节点丢弃池化方法的主要区别在于节点评分的方式不同。Graph U-Nets[17]根据节点在可训练投影向量上的标量投影值自适应地选择一些节点,以形成一个粗粒度图。具体来说,计算节点的特征向量在投影向量p上的标量投影值,得到的投影值表示该节点在投影向量p上的信息保留程度。SAGPool(self-attention graph pooling)[26]使用GCN计算节点的评分,再通过指定池化率k来保留分数排名为前kN的节点作为粗粒度层中的节点。ASAP(adaptive structure aware pooling)[19]为每个节点考虑h跳邻域内的邻居作为中心节点的类簇,通过注意力机制计算节点在每个类簇中的成员关系,再使用局部极值卷积(local extrema convolution,LEConv)[19]计算每个类簇的适应度分数,最后根据适应度分数选择排名前kN个类簇中心节点作为粗粒度层的节点。MVPool(multi-view graph pooling)[18]利用图结构和节点特征信息进行全面和客观的节点评估,从多个角度得到节点的评分并使用注意力机制进行融合,最终选择一定比率的重要节点作为粗粒度图的节点。此外,MVPool考虑到丢弃池化会导致图结构的破坏,因此提出使用稀疏注意力机制从诱导子图中重新学习一个优化后的图结构。CovPooling(covariance pooling)[27]通过计算节点嵌入的协方差矩阵,并利用节点之间的相关系数生成节点得分,选取前kN的节点生成图的层次表示。

    给定一个图G=(V,A,F),其中V表示节点集合;A是图的邻接矩阵,代表节点之间的连接关系,Aij=1表示节点vi和节点vj之间存在边的连接,反之Aij=0;节点的特征矩阵为FRn×fn表示图中节点个数,f为图的原始特征的维度。

    由于图池化的影响,每一层图的结构会变化,为区分各个粒层的图,使用Gk=(Vk,Ak,Xk)来表示第k个粒层的图,相应的VkAkRnk×nkXkRnk×dZkRnk×d分别表示第k层粒层图的节点集、邻接矩阵、输入表示以及输出表示。特别的,对于原始图来说,n0表示原始图中节点个数,那么输入表示为X0=FRn0×f

    定义1偏序关系[28] 假设S是一个集合,是集合S上的二元关系,若满足以下条件:

    {aS,aaa,bS,(abba)a=ba,b,cS,(abbc)ac (1)

    则称为集合S上的偏序关系。

    定义2偏序集[29] 若在集合S上给定一个偏序关系,则称集合S按偏序关系构成一个偏序集合,记作(S,)

    在卷积神经网络(convolutional neural networks,CNNs)[30]中,池化层扮演着至关重要的角色。下采样也被称为池化,旨在降低特征图的大小并扩大其感受野,使其能够对输入的空间变化更具鲁棒性。而图池化可以看作是卷积神经网络中池化概念在图神经网络中的延伸,其发挥着与CNNs池化层相似的作用。与CNNs池化层不同是GNNs的池化层处理的是非欧几里得空间的图数据,因此其实现方式更加复杂。

    在本小节中,介绍MVMGr-PO的下采样(图池化)操作。与传统的图池化方法不同,该操作不需要预设池化率,这使得它更具灵活性和通用性,能够适用于不同规模和结构的图数据。此外,它采用多视图评估策略来全面而准确地衡量每个节点的重要性。这种策略不仅考虑节点的局部特征,还融入了图的整体结构信息,从而能够更加精准地确定哪些节点在池化过程中应该被保留。

    首先将图中的每个节点vi视为一个类簇的中心点,每个类簇包含距离该中心点固定半径h跳内的邻居,即ch(vi)=Nh(vi)。特别的,当h=1时,c(vi)即为节点vi的所有邻居节点构成的集合N(vi)。在这种设定下,每个节点都会形成一个局部的类簇,这些类簇覆盖了图的不同区域,并捕捉了图的局部结构特征。MVMGr-PO将图池化视为一个类簇选择问题,即从众多的簇中选择出最具代表性的簇来代表整个细粒度图。为实现这一目标,本文设计一种基于多视图的类簇重要性评分机制。具体而言,MVMGr-PO从节点特征视图、图结构视图以及全局视图对每个类簇进行综合评分。

    1) 节点特征视图。这一视图基于节点的特征信息来评估其重要性。通过提取节点的输入表示Xk,使用MLP来判断哪些类簇中心节点在特征空间上具有代表性或独特性。节点的输入表示Xk使得MVMGr-PO能够保留对图整体表示具有贡献的类簇中心节点:

    sf=sigmoid(MLP(Xk)) (2)

    式中:sfRnk表示在节点特征视图下计算类簇中心节点的重要性得分,XkRnk×d表示第k个粒层图的输入特征。

    2) 图结构视图。这一视图主要关注每个类簇在图中的位置以及类簇之间的连接关系。MVMGr-PO使用类簇的大小|ch(vi)|来反映以节点vi为中心的类簇在图结构中重要性。特别的,当类簇半径h=1时,|ch(vi)|即为节点vi的度。在真实的网络中,节点的度分布大多数服从幂律分布[31],幂律分布意味着少数节点拥有非常高的度,而大多数节点的度相对较低。类似的,中心节点vi所代表类簇的大小|ch(vi)|也服从幂律分布,这导致评分过于偏向于那些|ch(vi)|大的类簇,而忽视了其他类簇的重要性。为防止幂律分布导致的偏差,一种常见的做法是对|ch(vi)|进行某种形式的转换或调整,以使得评分符合特定的分析需求。使用对数函数(log)是一种常见的方法,对数函数可以将较大的数值压缩到较小的范围内,同时保持数值之间的相对差异。然而,直接使用对数可能会导致所有类簇的分数变得非常接近,从而失去了区分度。因此,MVMGr-PO采用平方根函数(sqrt)来处理幂律分布所带来的问题。平方根函数能够在一定程度上减小|ch(vi)|数值之间的巨大差异,同时能够保持一定的区分度,使得那些具有较大|ch(vi)|的类簇在评分中仍然能够脱颖而出,但又不至于过于偏向于它们。此外,引入一些可学习参数来进一步调整平方根函数,以使其更加灵活地适应不同的幂律分布和评分需求。参数α用于控制评分的整体缩放,通过调整α的值,可以控制评分的大小范围,以便更好地适应特定的评分系统或可视化需求。参数β是一个平移因子,用于控制分数的平移,进而可以在不改变评分相对差异的情况下,整体提高或降低所有类簇的评分。这有助于将评分调整到特定的范围或满足特定的分析需求。具体计算公式为

    ss=sigmoid(α×sqrt(|ch(v)|)+β) (3)

    式中:ssRnk表示在图结构视图下计算类簇中心节点的重要性得分,|ch(v)|Rnk表示各中心节点所代表的类簇大小。

    3) 全局视图。这一视图旨在结合前两个视图的信息,从全局角度评估节点的重要性。通过综合考虑节点的局部结构、特征信息,可以得到更加全面和准确的节点重要性评分。在综合考虑节点的局部结构和特征信息时,GCN和MLP是两种常用的方法。GCN能够有效地捕捉节点之间的关系和局部结构,而MLP则可以对节点的特征进行非线性变换和组合。将它们结合起来可以提高节点重要性评分的准确性和全面性。具体计算公式为

    ssf=sigmoid(MLP(Xk)+GCN(Bk,Xk)) (4)

    式中:ssfRnk表示在全局视图下计算类簇中心节点的重要性分数;Bk=hi=1(Ak)i,即将类簇中心节点与其h跳范围内的所有邻居节点进行连接,从而形成一个更广泛的连接图结构;XkRnk×d表示第k个粒层图的输入表示;sigmoid函数的作用是将分数映射到[0,1],使得各个视图的分数可以在相同的尺度上进行比较。

    在综合考虑节点特征视图、图结构视图和全局视图的信息后,MVMGr-PO使用加权注意力机制动态地将3种分数结合,以得到最终的节点重要性评分。

    具体的,定义注意力权重αi用于第i个视图,其计算方式为

    αi=exp(σ(φwi+bi))3j=1exp(σ(φwj+bj)) (5)

    式中:φ=[sf,ss,ssf]Rnk×3表示3种视图下分数的拼接,wiR3biR是视图i的可学习参数。最后,将注意力权重与各个视图的重要性分数相乘,得到最终的类簇中心节点的重要性评分ϕ,具体计算公式为

    ϕ=3i=1αizi (6)

    式中zi是视图i下的节点重要性得分。

    接下来,使用偏序关系来确定图中的关键节点。引入偏序关系使得MVMGr-PO能够对节点的重要性进行比较和排序,进而识别出在整个图结构中扮演关键角色的节点。现考虑一个偏序集G=(V,>),其中V表示节点集合,>表示“大于”关系。现为每个类簇中心节点viV都赋予一个对应的评分ϕi。为了从细粒度图的节点集合中选出关键节点,现定义集合M,表示所有“节点的评分高于其所有相邻节点的评分”的节点,即

    M={viϕi>ϕj,vjN(vi)} (7)

    式中N(vi)表示节点vi的邻居集合。集合M中的节点在其局部邻域内具有最高的评分,因此将其作为核心节点构建粗粒度层。这些节点在网络结构中拥有显著的地位,代表着其邻域节点。除了将集合M中的节点视为重要节点外,还需保留不属于集合M中节点邻域的节点,以维持图结构的完整性。现定义集合N

    N=VviMN(vi) (8)

    式中表示并集运算。因此,经过粗化处理后,得到的节点总数为|M|+|N|个。粗粒度图的构造示意如图1所示。

    图  1  粗粒度图的构造示意
    Fig.  1  Illustration of the construction of a coarse-grained graph
    下载: 全尺寸图片

    延续节点聚合池化的思想,构造分配矩阵Sk,k+1Rnk×(|M|+|N|)。其中,第k个粒度层的节点个数为nk,第k+1个粒度层的节点个数为nk+1=|M|+|N|Sk,k+1的每一行代表细粒度图的每一个节点,而每一列代表粗粒度图中的节点。由于集合MN中的节点在粗粒度层中被保留,因此对于viMN,有Sk,k+1[i,j]=1,其中j表示节点vi在粗粒度图中的对应节点索引。此外,对于vjMviN(vj),有Sk,k+1[i,j]=1,其中j表示节点vj在粗粒度图中的对应节点索引,vi为节点vj在细粒度层中的邻居。此外,对于Sk,k+1的其他位置填充为0。需要注意的是,该方法本质上是一个软分配,即一个细粒度节点可能同时被分配到多个粗粒度节点中,这反映了在粒度转换过程中节点可能具有的多重归属或多重关系。

    通过给定的分配矩阵Sk,k+1可以将细粒度图中的节点聚合为粗粒度图中的节点。给定细粒度图的邻接矩阵AkRnk×nk,使用分配矩阵Sk,k+1Rnk×nk+1将其转换为粗粒度层图的邻接矩阵Ak+1Rnk+1×nk+1,具体操作为

    Ak+1=STk,k+1AkSk,k+1 (9)

    这使得在细粒度层中,如果两个超节点共享任何公共节点,则它们在粗粒度层中将保持连接。在构建粗粒度图时,通常希望每个粗粒度节点能够保留细粒度图中的一些重要特征信息。这些特征信息可以用来描述节点在整个图结构中的重要性、性质或其他相关属性。一种常见的方法是基于聚合操作,通过对细粒度图中节点的特征进行聚合来构造粗粒度图节点的特征,即使用Xk+1=STk,k+1ZkRnk+1×d。然而,该方式通过对细粒度图中邻居节点的特征进行聚合可能会导致关键节点的特征信息被模糊,从而丢失自己的原始信息,使其无法充分反映整个图结构的性质。因此,本文采用如下方法来解决这一问题:

    ˜Zk=Zk[idx,:]Rnk+1×d˜ϕ=ϕ[idx,:]Rnk+1×1Xk+1=˜Zk(˜ϕ1Td)Rnk+1×d (10)

    式中:idx表示粗粒度图中节点在细粒度图中对应索引;Zk[idx,:]ϕ[idx,:]分别用来提取出粗粒度节点在细粒度图中的输出表示˜Zk以及节点评分˜ϕ1Td表示一个长度为d的元素全为1的行向量,则˜ϕ1TdRnk+1×d表示矩阵逐元素乘积。将粗粒度节点的输出表示与评分进行乘积运算,旨在实现两者信息的融合。通过这种方式,评分能够作为输出表示的权重,影响其在后续计算和分析中的地位。更重要的是,这使得评分可以通过反向传播算法进行更新。

    与下采样相对应,上采样是图神经网络中的一个重要模块,它用于恢复细粒度图的图结构和节点嵌入表示。上采样的目标是利用粗粒度图的信息来获取细粒度图的信息,从而实现细粒度图的重建。由于在池化过程中,通过保存各粒度层的邻接矩阵Ak已经获得各个粒度层的图结构,目前还缺少各个粒度层节点的嵌入表示εk。接下来,将讨论如何来填补这一缺失。

    首先,本文使用分配矩阵Sk,k+1将粗粒度图的嵌入表示εk+1进行投影从而得到细粒度图的嵌入表示εpk

    εpk=Sk,k+1εk+1 (11)

    式中εk+1Rnk+1×d是粗粒度图的嵌入表示。对于最粗粒度图来说εm=Xmm是池化层数。由于直接将粗粒度节点的嵌入投影到细粒度节点上,因此称εpkRnk×d为第k个粒度层的投影嵌入。使用分配矩阵Sk,k+1来指导投影过程,为的是确保投影后的细粒度节点表示能够保持与粗粒度节点的关联性和一致性。

    由于在下采样过程中,集合M中节点vi的邻居都被vi所代表从而变成一个粗粒度节点,这种简单的投影将导致节点vi的邻居节点共享相同的嵌入。此外,在上文中提到,一个细粒度节点可能会被分配到多个粗粒度节点中,这导致多个粗粒度节点的嵌入信息将聚合在同一个细粒度节点上,从而导致细粒度节点的嵌入表示平滑化。基于上面提到的这两个原因,需要在投影之后通过引入额外的机制对节点的嵌入进行提纯和优化。在这里,本文采用残差连接并使用GNNsεpkZk进行优化,具体来说:

    εk=GNNs(Ak,εpkZk) (12)

    式中:εkRnk×d为第k粒度层的最终嵌入表示,ZkRnk×d为下采样过程中的输出表示,表示矩阵逐元素相加。

    节点表示学习目标是找到一个映射函数f:VRd,即将图中的每个节点v映射为一个d维实向量f(v),且dn,其中n为图中节点个数。节点分类的任务是根据节点的表示向量来获取该节点的类别y。因此需要一个目标标签矩阵YRn×c,其中c表示类别数。若节点vi属于类别jYij=1否则Yij=0。MVMGr-PO进行节点表示学习如算法1所述。

    算法1 MVMGr-PO算法

    输入 输入图G=(V,A,F),类簇半径h,下采样层数m

    输出 节点的嵌入表示ε0Rn0×d

    //下采样阶段

    1) For k = 0, 1, 2, … , m−1 do:

    2) 获得输出表示Zk=GNN(Xk,Ak)

    3) 计算sf,ss以及ssf;//式(2)(3)(4)

    4) 使用注意力机制计算节点分数ϕ;//式(5)(6)

    5) 获得粗粒度图节点集Vk+1=MN;//式(7)(8)

    6) 构造分配矩阵Sk,k+1

    7) 获得粗粒度图的邻接矩阵Ak+1;//式(9)

    8) 获得粗粒度图的节点特征表示Xk+1;//式(10)

    9) End For

    10)获得最粗粒度图的嵌入表示εm=Xm

    //上采样阶段

    11) For k = m−1, m−2, … , 0 do:

    12) 得到投影嵌入εpk;//式(11)

    13) 残差连接后使用GNNs优化投影嵌入;//式(12)

    14) End For;

    15) Return ε0

    MVMGr-PO进行节点表示学习如算法1所述。首先,将原始图数据及其相应的节点特征输入GNNs中进行嵌入表示,以获取初步的节点表示。接下来,对节点进行下采样(池化)操作,将图数据从细粒度逐步转换为粗粒度,并通过逐层应用GNNs进行学习以提取更高层次的特征。在经过一系列的GNNs和下采样操作后,获得最粗粒度图的嵌入表示。随后,利用式(11)将这些嵌入投影到细粒度图上。同时,在投影嵌入到细粒度图上的过程中,利用残差连接将下采用过程中记录的各层输出表示Zk加到投影嵌入εpk上。这种残差连接的机制使模型能够保留更多的细节信息,并且加速模型收敛过程。进一步地,通过再次应用GNNs对εpkZk进行优化。这个过程重复进行,直到最终得到原始图的最终嵌入表示。节点表示学习框架示意如图2所示。

    图  2  节点表示学习框架示意
    Fig.  2  Illustration of the node representation learning framework
    下载: 全尺寸图片

    通过这种节点表示学习框架,模型能够在保留原始图结构信息的同时,有效地捕捉多个粒度图中节点的特征,并在分类任务中取得优秀的性能表现。

    本节中,将MVMGr-PO与最先进的节点分类模型进行比较。接下来将介绍数据集、基线方法、实验设置以及实验结果的分析和讨论。

    本实验采用半监督的直推式学习(transductive),模型能够访问所有节点的属性信息以及整个图结构。为了全面比较本实验方法与最先进方法的性能,本文选取了6个广泛使用的数据集作为实验数据集。这些数据集包括3个引文数据集(Citeseer、Pubmed 和Cora),这些数据集中的节点和边分别表示不同主题的研究论文和它们之间的引用关系;2个合著关系数据集(CS和Physics),在这些数据集中节点代表作者,边表示作者之间的共同作者关系,即两位作者共同发表的一篇或多篇论文;以及1个亚马逊商品共现网络数据集Photo,其中节点表示商品,边表示在同一交易中购买的商品。

    由于采用半监督学习,在Cora、Citeseer以及Pubmed数据集中,对于每个类别随机选择20个节点作为训练集,500个节点作为验证集以及1000个节点作为测试集。对于CS、Physics和Photo数据集,本实验对每个类别随机选择20个节点进行训练,30个节点作为验证集,其余节点作为测试集。其统计数据如表1所示。

    表  1  数据集统计数据
    Table  1  Information statistic of datasets
    数据集 节点数目 边数目 特征维度 类别数 数据集划分
    Cora 2708 10556 1433 7 140/500/1000
    Citeseer 3327 9104 3703 6 120/500/1000
    Pubmed 19717 88648 500 3 60/500/1000
    CS 18333 163788 6805 15 300/450/17583
    Physics 34493 495924 8415 5 100/150/34243
    Photo 7650 238162 745 8 160/240/7250

    本实验将节点分类基线方法大致分为4种:

    1) 传统节点表示学习方法。在这一类中,本实验选取MLP、DeepWalk[32]以及Node2vec[33]作为基准方法。MLP通过将节点特征映射至一个表示向量,进而用于节点分类任务。DeepWalk将随机游走产生的节点序列视作自然语言处理中的句子,其中每个节点的邻居节点在游走过程中扮演了类似于Word2Vec模型中上下文窗口的角色。通过这种方法,DeepWalk成功地将词嵌入技术应用于图数据,实现了节点的有效嵌入。Node2vec是DeepWalk的扩展,它通过调整随机游走策略,在探索图结构时能够平衡局部和全局信息,进一步提升了节点嵌入的质量。

    2)基于图神经网络的节点嵌入方法。这类方法是传统的图神经网络,为节点分类提供了高效解决方案。GCN[24]通过多层图卷积聚合邻居信息,生成富含结构信息的嵌入。GAT (graph attention network)[34]引入注意力机制,使模型能够自适应地学习不同邻居节点的重要性,并据此进行信息聚合。

    3)基于节点聚合池化的分层表示模型。这类算法通过聚合节点及其邻居的信息,形成图的层次化表示,从而捕捉图数据的内在结构和特征。AdamGNN[16]将图池化视为自网络选择问题,通过计算每个自网络的分数来选择关键节点进行池化,并根据自网络中节点的隶属关系构造分配矩阵,从而将节点进行聚合以形成粗粒度节点。

    4)基于节点丢弃池化的分层表示模型。这类算法通过设置池化率,选择并丢弃图中的节点从而实现图的层次化表示。Graph U-Nets[17]根据节点在可训练投影向量上的标量投影值选择一些节点以形成粗粒度图。MVPool[18]通过结合不同视图的信息来生成稳健的节点排名,再通过指定池化率来实现图池化。

    本实验采用PyTorch Geometric[35]实现MVMGr-PO,具体代码已上传至github (https://github.com/codefly-xtl/MVMGr-PO)。在模型训练过程中,采用Adam[36]优化器进行训练。在进行每次训练时,在验证集上进行验证,并保存在验证集上准确率最高的模型。最后,使用保存的模型在测试集上进行一次测试。这种训练流程确保了模型在验证集上的表现是整个训练过程中最优秀的模型。而通过在独立的测试集上进行测试,可以评估模型的泛化能力和在未见过的数据上的性能。此外,本实验对模型进行10次评估,并计算平均准确率以及标准差,以确保评估结果的稳定性和可靠性。这种多次评估的方法有助于减少由于数据随机性或模型初始化的差异而引起的评估偏差。

    在节点分类任务中,本实验对不同的数据集有不同的参数设置,具体的参数设置如表2所示。此外,对于基线模型GCN和GAT,由于文献[35]和本实验有着相同的数据划分规则,本实验直接引用PyTorch Geometric的benchmark[35]中的性能结果。对于AdamGNN、Graph U-Nets以及MVPool模型,本实验遵循原论文中的实验参数设置进行对比实验。

    表  2  模型参数
    Table  2  Model parameters
    数据集 学习率 权重
    衰减
    隐藏层
    单元数
    丢弃率 池化
    层数
    类簇
    半径
    迭代
    次数
    Cora 0.01 0.01 256 0.8 2 2 20
    Citeseer 0.001 0.1 256 0.7 1 2 50
    Pubmed 0.01 0.001 256 0.8 1 1 50
    CS 0.01 0.01 256 0.7 2 1 50
    Physics 0.01 0.01 256 0.8 1 1 20
    Photo 0.05 0.001 256 0.5 3 1 100

    为了验证MVMGr-PO的整体性能,本实验将MVMGr-PO与基线模型进行了对比。表3给出了在各个公开数据集上的分类准确度,其中粗体表示该数据集上的最佳性能,而性能排名第2的数据则使用下划线进行显示。

    表  3  在各个公开数据集上的分类准确度
    Table  3  Classification accuracy on each public dataset %
    模型 Cora Citeseer Pubmed CS Physics Photo
    MLP 53.4±5.0 56.2±2.9 68.2±4.6 86.4±1.3 88.0±1.4 78.7±1.0
    DeepWalk 67.2±0.8 41.2±2.0 64.1±2.3 78.2±1.5 76.6±1.6 73.1±1.8
    Node2Vec 67.0±1.5 43.0±2.0 63.7±2.9 77.9±1.3 75.7±1.7 72.5±2.1
    GCN 79.4±1.9 68.1±1.7 77.4±2.4 88.0±1.2 91.5±2.6 87.2±0.1
    GAT 81.0±1.4 69.2±1.9 78.3±2.3 90.3±0.7 91.6±1.0 87.3±0.1
    GraphSAGE 78.9±1.7 66.6±2.3 75.0±2.9 90.5±0.5 90.0±1.4 91.3±0.1
    AdamGNN 83.1±0.9 72.8±0.5 80.6±0.6 91.5±0.1 93.7±0.2 90.2±0.2
    MVPool 83.6±1.2 72.6±1.1 80.0±1.8 92.0±0.5 94.0±0.6 88.8±0.4
    Graph U-Nets 83.9±0.4 72.2±0.3 80.6±0.7 92.2±0.1 94.2±0.1 88.9±0.5
    MVMGr-PO 85.1±0.2 75.2±0.3 83.8±0.2 92.5±0.1 94.7±0.1 92.2±0.1
    相对提升 1.4 3.2 3.9 0.3 0.5 0.9

    Deepwalk和Node2vec方法虽然利用图结构信息来获取节点嵌入,但却忽视了节点特征信息的重要性。GNNs通过将节点特征和图结构信息编码到一个统一的表示空间中,实现显著的性能提升。具体到GCN、GAT以及GraphSAGE,它们相比传统的MLP和基于随机游走的嵌入技术有所进步,但仍未充分整合和利用图中的多粒度信息。进一步的,像AdamGNN、MVPool和Graph U-Nets虽然强调了多粒度信息的整合,但在实际应用中也暴露出一些局限性。例如,AdamGNN采用节点聚合池化思想对图进行粗化,但其对重要节点的选择策略过于简单,可能无法有效识别和保留图中最具代表性的节点。而MVPool和Graph U-Nets采用节点丢弃池化策略,通过设定池化率来进行池化,而不合适的池化率可能导致不重要的节点被保留,或者重要节点被过度丢弃,会造成大量孤立的节点从而破坏图的结构完整性。MVMGr-PO通过构建不同的视图来评估每个节点的重要性,并利用节点的评分以及节点间的偏序关系来识别和保留关键节点从而实现有效的图粗化。这种自适应的池化策略允许模型在不同粒度层次上捕捉和保留图的关键信息。

    实验证明,MVMGr-PO在多个数据集上的表现均优于现有方法,充分证明了其有效性。具体而言,与不具备分层表示学习机制的GCN相比,MVMGr-PO在各个数据集上相对提高了7.1%、10.4%、8.2%、5.1%、3.4%以及5.7%,这验证了多粒度节点表示学习的必要性。相较于各个数据集中性能排名第2的基线模型,MVMGr-PO在各个数据集上的相对提升分别达到了1.4%、3.2%、3.9%、0.3%、0.5%以及0.9%。这些结果不仅验证了MVMGr-PO的有效性,也强调了在图表示学习中考虑节点间偏序关系的重要性。

    3.5.1   下采样策略可视化分析

    在本小节,通过可视化技术比较MVMGr-PO方法与传统的节点丢弃池化和节点聚合池化方法的区别。为此,本实验使用Watts模型[32]构建了一个小世界图,该图包含1000个节点,每个节点与其在环形拓扑结构中的3个最近邻居节点相连,并设置重连概率为0.3。为了揭示图的底层拓扑结构,本实验采用力导向布局 (force-directed layout)进行可视化。在下采样(池化)操作中,MVMGr-PO无需指定池化率,而节点丢弃池化和节点聚合池化的池化率均设定为0.6。

    图3给出了在相同的图上应用3种不同下采样策略后得到的结果,每种方法均执行了3次池化操作。MVMGr-PO方法通过多视图对节点进行综合评价,并基于节点间的偏序关系来识别图中的重要节点。这种策略旨在保留结构上更为关键的节点,从而在减少节点数量的同时维持图的基本框架。从结果可见,即便经过3次池化,图的骨架结构依然得到很好的保留。相较之下,以ASAP[19]代表的节点丢弃池化方法在每次迭代后均导致大量边的丢失,图的结构信息显著减少,图的连通性和信息传递能力可能遭受严重影响。节点聚合池化方法则是通过聚合细粒度节点形成粗粒度节点从而实现图池化。本文以MgPool[21]为例进行展示,可视化结果揭示了过度聚合引发的问题,包括引入许多非原始存在的边,这些新边扭曲了图的原始结构信息。

    图  3  不同池化方法的可视化
    Fig.  3  Visualization of different pooling methods
    下载: 全尺寸图片

    通过可视化比较,可以清晰地观察到,相较于节点丢弃池化和节点聚合池化,MVMGr-PO在保留图的基本结构方面展现出了显著的优势。这种保留原始图结构的能力对于后续的图分析任务至关重要,因为它确保了图的核心信息在池化过程中得以完整保留,为后续分析提供了坚实的基础。

    3.5.2   多视图评估策略的影响分析

    在粗粒度节点选择过程中,评估节点分数的策略对实验结果有着关键影响。本研究通过对比不同的节点评分方法,旨在验证MVMGr-PO中多视图评估策略的有效性。

    实验设计包括为图中每个节点随机分配评分,作为基准进行性能比较。此外,本实验引入其他几种不同的节点评分策略作为对比。具体而言,参照Graph U-Nets的方法,通过计算节点特征向量在一个可训练投影向量上的标量投影值来确定节点分数。进一步,借鉴SAGPool的策略,使用图神经网络(GNNs)计算节点分数。最后,采用ASAP中的局部极值卷积(local extrema convolution,LEConv)模块计算节点分数,以全面评估各种方法的有效性。实验结果如图4所示。

    图  4  不同的节点分数评估策略对性能的影响
    Fig.  4  Impact of different node scoring evaluation strategies on performance
    下载: 全尺寸图片

    实验数据表明,尽管评分策略的选择对模型准确性的影响在一定程度上是有限的,但不同的策略在不同数据集上的表现仍展现出了一定的差异性。

    相较之下,采用了Graph U-Nets的评分策略相比于基线方法略有提升,而使用SAGPool和ASAP的评分策略在Cora、Citeseer以及Pubmed数据集上表现较为突出。相对于各种评分策略,MVMGr-PO模型在性能上取得较好的性能。这表明,通过采用多视图评估策略,MVMGr-PO能够更准确地选择粗粒度节点。

    本研究针对现有图表示学习方法中未充分考虑节点间的偏序关系,导致图结构信息和关键节点特征的丢失问题,提出一种基于偏序关系的多视图多粒度图表示学习框架。该框架综合考虑了节点特征视图、图结构视图以及全局视图,通过多视图分析节点的重要性,并依据节点间的偏序关系执行下采样操作,有效保持了图结构的完整性,使模型能够在不同层次上捕捉图数据的特征。在上采样阶段,采用先投影后优化的策略,从而避免了两个问题:一是隶属于同一类簇的细粒度节点的特征平滑化;二是多个粗粒度节点嵌入表示聚合在同一细粒度节点上,导致该节点的嵌入表示平滑化。此外,使用残差连接将下采样与上采样阶段进行连接,能够加速模型收敛过程。实验结果表明,本模型具有一定的有效性。

    本研究虽在性能上取得了一定的提升,但仍有进一步的完善空间。在未来的工作中,一方面考虑使用图结构学习对下采样之后的图结构进行优化;另一方面考虑引入多任务学习机制,以提高模型的泛化能力。

  • 图  1   粗粒度图的构造示意

    Fig.  1   Illustration of the construction of a coarse-grained graph

    下载: 全尺寸图片

    图  2   节点表示学习框架示意

    Fig.  2   Illustration of the node representation learning framework

    下载: 全尺寸图片

    图  3   不同池化方法的可视化

    Fig.  3   Visualization of different pooling methods

    下载: 全尺寸图片

    图  4   不同的节点分数评估策略对性能的影响

    Fig.  4   Impact of different node scoring evaluation strategies on performance

    下载: 全尺寸图片

    表  1   数据集统计数据

    Table  1   Information statistic of datasets

    数据集 节点数目 边数目 特征维度 类别数 数据集划分
    Cora 2708 10556 1433 7 140/500/1000
    Citeseer 3327 9104 3703 6 120/500/1000
    Pubmed 19717 88648 500 3 60/500/1000
    CS 18333 163788 6805 15 300/450/17583
    Physics 34493 495924 8415 5 100/150/34243
    Photo 7650 238162 745 8 160/240/7250

    表  2   模型参数

    Table  2   Model parameters

    数据集 学习率 权重
    衰减
    隐藏层
    单元数
    丢弃率 池化
    层数
    类簇
    半径
    迭代
    次数
    Cora 0.01 0.01 256 0.8 2 2 20
    Citeseer 0.001 0.1 256 0.7 1 2 50
    Pubmed 0.01 0.001 256 0.8 1 1 50
    CS 0.01 0.01 256 0.7 2 1 50
    Physics 0.01 0.01 256 0.8 1 1 20
    Photo 0.05 0.001 256 0.5 3 1 100

    表  3   在各个公开数据集上的分类准确度

    Table  3   Classification accuracy on each public dataset %

    模型 Cora Citeseer Pubmed CS Physics Photo
    MLP 53.4±5.0 56.2±2.9 68.2±4.6 86.4±1.3 88.0±1.4 78.7±1.0
    DeepWalk 67.2±0.8 41.2±2.0 64.1±2.3 78.2±1.5 76.6±1.6 73.1±1.8
    Node2Vec 67.0±1.5 43.0±2.0 63.7±2.9 77.9±1.3 75.7±1.7 72.5±2.1
    GCN 79.4±1.9 68.1±1.7 77.4±2.4 88.0±1.2 91.5±2.6 87.2±0.1
    GAT 81.0±1.4 69.2±1.9 78.3±2.3 90.3±0.7 91.6±1.0 87.3±0.1
    GraphSAGE 78.9±1.7 66.6±2.3 75.0±2.9 90.5±0.5 90.0±1.4 91.3±0.1
    AdamGNN 83.1±0.9 72.8±0.5 80.6±0.6 91.5±0.1 93.7±0.2 90.2±0.2
    MVPool 83.6±1.2 72.6±1.1 80.0±1.8 92.0±0.5 94.0±0.6 88.8±0.4
    Graph U-Nets 83.9±0.4 72.2±0.3 80.6±0.7 92.2±0.1 94.2±0.1 88.9±0.5
    MVMGr-PO 85.1±0.2 75.2±0.3 83.8±0.2 92.5±0.1 94.7±0.1 92.2±0.1
    相对提升 1.4 3.2 3.9 0.3 0.5 0.9
  • [1] SCHMARJE L, SANTAROSSA M, SCHRÖDER S M, et al. A survey on semiself and unsupervised learning for image classification[J]. IEEE access, 2021, 9: 82146−82168. doi: 10.1109/ACCESS.2021.3084358
    [2] 陈洛轩, 林成创, 郑招良, 等. Transformer在计算机视觉场景下的研究综述[J]. 计算机科学, 2023, 50(12): 130−147. doi: 10.11896/jsjkx.221100076

    CHEN Luoxuan, LIN Chengchuang, ZHENG Zhaoliang, et al. Review of transformer in computer vision[J]. Computer science, 2023, 50(12): 130−147. doi: 10.11896/jsjkx.221100076
    [3] LAURIOLA I, LAVELLI A, AIOLLI F. An introduction to deep learning in natural language processing: models, techniques, and tools[J]. Neurocomputing, 2022, 470: 443−456. doi: 10.1016/j.neucom.2021.05.103
    [4] BLONDEL V D, GUILLAUME J L, LAMBIOTTE R, et al. Fast unfolding of communities in large networks[J]. Journal of statistical mechanics: theory and experiment, 2008, 2008(10): 10008. doi: 10.1088/1742-5468/2008/10/P10008
    [5] SAKAI M, NAGAYASU K, SHIBUI N, et al. Prediction of pharmacological activities from chemical structures with graph convolutional neural networks[J]. Scientific reports, 2021, 11(1): 525. doi: 10.1038/s41598-020-80113-7
    [6] GAO Chen, WANG Xiang, HE Xiangnan, et al. Graph neural networks for recommender system[C]//Proceedings of the Fifteenth ACM International Conference on Web Search and Data Mining. Virtual Event: ACM, 2022: 1623−1625.
    [7] 吴国栋, 查志康, 涂立静, 等. 图神经网络推荐研究进展[J]. 智能系统学报, 2020, 15(1): 14−24. doi: 10.11992/tis.201908034

    WU Guodong, ZHA Zhikang, TU Lijing, et al. Research advances in graph neural network recommendation[J]. CAAI transactions on intelligent systems, 2020, 15(1): 14−24. doi: 10.11992/tis.201908034
    [8] 刘彦北, 马夕然, 王雯. 可信的图神经网络节点分类方法[J]. 天津工业大学学报, 2024, 43(1): 82−88. doi: 10.3969/j.issn.1671-024x.2024.01.011

    LIU Yanbei, MA Xiran, WANG Wen. Node classification method based on trusted graph neural network[J]. Journal of Tiangong university, 2024, 43(1): 82−88. doi: 10.3969/j.issn.1671-024x.2024.01.011
    [9] 东昱晓, 柯庆, 吴斌. 基于节点相似性的链接预测[J]. 计算机科学, 2011, 38(7): 162−164,199. doi: 10.3969/j.issn.1002-137X.2011.07.036

    DONG Yuxiao, KE Qing, WU Bin. Link prediction based on node similarity[J]. Computer science, 2011, 38(7): 162−164,199. doi: 10.3969/j.issn.1002-137X.2011.07.036
    [10] 王兆慧, 沈华伟, 曹婍, 等. 图分类研究综述[J]. 软件学报, 2022, 33(1): 171−192.

    WANG Zhaohui, SHEN Huawei, CAO Qi, et al. Survey on graph classification[J]. Journal of software, 2022, 33(1): 171−192.
    [11] HAMILTON W L, YING R, LESKOVEC J. Inductive representation learning on large graphs[EB/OL]. (2017−06−07)[2024−06−07]. https://arxiv.org/abs/1706.02216v4.
    [12] CHIANG Weilin, LIU Xuanqing, SI Si, et al. Cluster-GCN: an efficient algorithm for training deep and large graph convolutional networks[C]//Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. Anchorage: ACM, 2019: 257−266.
    [13] YING Z, YOU Jiaxuan, MORRIS C, et al. Hierarchical graph representation learning with differentiable pooling[J]. Advances in neural information processing systems, 2018, 31: 1−11.
    [14] ZHONG Zhiqiang, LI Chengte, PANG Jun. Multi-grained semantics-aware graph neural networks[J]. IEEE transactions on knowledge and data engineering, 2023, 35(7): 7251−7262.
    [15] GAO H, JI S. Graph U-Nets[J]. IEEE transactions on pattern analysis and machine intelligence, 2022, 44(9): 4948−4960.
    [16] ZHANG Zhen, BU Jiajun, ESTER M, et al. Hierarchical multi-view graph pooling with structure learning[J]. IEEE transactions on knowledge and data engineering, 2023, 35(1): 545−559.
    [17] RANJAN E, SANYAL S, TALUKDAR P. ASAP: adaptive structure aware pooling for learning hierarchical graph representations[J]. Proceedings of the AAAI conference on artificial intelligence, 2020, 34(4): 5470−5477. doi: 10.1609/aaai.v34i04.5997
    [18] 张蕾, 钱峰, 赵姝, 等. 基于多粒度结构的网络表示学习[J]. 智能系统学报, 2019, 14(6): 1233−1242. doi: 10.11992/tis.201905045

    ZHANG Lei, QIAN Feng, ZHAO Shu, et al. Network representation learning based on multi-granularity structure[J]. CAAI transactions on intelligent systems, 2019, 14(6): 1233−1242. doi: 10.11992/tis.201905045
    [19] SUN Haichao, WANG Guoyin, LIU Qun. Graph neural networks with multi-granularity pooling[C]//2022 IEEE 8th International Conference on Cloud Computing and Intelligent Systems. Chengdu: IEEE, 2022: 114−118.
    [20] LIANG Jiongqian, GURUKAR S, PARTHASARATHY S. MILE: a multi-level framework for scalable graph embedding[J]. Proceedings of the international AAAI conference on web and social media, 2021, 15: 361−372. doi: 10.1609/icwsm.v15i1.18067
    [21] STANOVIC S, GAÜZÈRE B, BRUN L. Maximal independent vertex set applied to Graph pooling[M]//Lecture Notes in Computer Science. Cham: Springer International Publishing, 2022: 11−21.
    [22] KIPF T N, WELLING M. Semi-supervised classification with graph convolutional networks[EB/OL]. (2016−09−09)[2024−06−07]. https://arxiv.org/abs/1609.02907v4.
    [23] WU Junran, CHEN Xueyan, XU Ke, et al. Structural entropy guided graph hierarchical pooling[C]//International conference on machine learning. New York: PMLR, 2022: 24017−24030.
    [24] LEE J, LEE I, KANG J. Self-attention graph pooling[C]//International conference on machine learning. New York: PMLR, 2019: 3734−3743.
    [25] JIANG Jianjian, LEI Fangyuan, DAI Qingyun, et al. Graph pooling in graph neural networks with node feature correlation[C]//Proceedings of the 3rd International Conference on Data Science and Information Technology. Xia’men: ACM, 2020: 105−110.
    [26] KIM Y. Convolutional neural networks for sentence classification[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2014: 1746−1751.
    [27] PEROZZI B, AL-RFOU R, SKIENA S. DeepWalk: online learning of social representations[C]//Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining. New York: ACM, 2014: 701−710.
    [28] GROVER A, LESKOVEC J. node2vec: scalable feature learning for networks[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco: ACM, 2016: 855−864.
    [29] Veličković P, CUCURULL G, CASANOVA A, et al. Graph attention networks[EB/OL]. (2017−10−30)[2024−06−07]. https://arxiv.org/abs/1710.10903.
    [30] FEY M, LENSSEN J E. Fast graph representation learning with PyTorch geometric[EB/OL]. (2019−03−06) [2024−06−07]. https://arxiv.org/abs/1903.02428v3.
    [31] KINGMA D P, BA J, HAMMAD M M. Adam: a method for stochastic optimization[EB/OL]. (2014−12−22) [2024−06−07]. https://arxiv.org/abs/1412.6980v9.
    [32] WATTS D J, STROGATZ S H. Collective dynamics of ‘small-world’ networks[J]. Nature, 1998, 393(6684): 440−442. doi: 10.1038/30918
    [33] GROVER A, LESKOVEC J. Node2vec: scalable featurelearning for networks[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016: 855−864.
    [34] VELICKOVIC P, CUCURULL G, CASANOVA A, et al. Graph attention networks[J]. Stat, 2017, 1050(20): 39−41.
    [35] FEI M, LENSSEN J E. Fast graph representation learning with PyTorch geometric[C]//ICLR Workshop on Representation Learning on Graphs and Manifolds. Appleton: ICLR, 2019: 1−9.
    [36] KINGMA D P, Ba J. Adam: a method for stochastic optimization[EB/OL]. (2022−12−22)[2024−06−07]. https://arxiv.org/abs/1412.6980.
WeChat 点击查看大图
图(4)  /  表(3)
出版历程
  • 收稿日期:  2024-06-07

目录

/

返回文章
返回