Research on traffic flow prediction method based on spatial-temporal dynamic graph convolutional network
-
摘要: 为改进现有交通流量预测方法在建模时空数据和捕捉动态空间相关性方面的不足,提出了一种时空动态图卷积网络(spatio-temporal dynamic graph network,STDGNet)。该模型采用带嵌入层的编码器–解码器架构,通过动态图生成模块从数据驱动的角度挖掘潜在的时空关系,并重构每个时间步的节点动态关联图。嵌入层使用时空自适应嵌入方法建模交通数据的内在时空关系和时间信息;编码器部分利用时空记忆注意力机制,从全局视角对时空特征进行建模;解码器部分将图卷积模块注入循环神经网络中,以同时捕捉时间和空间依赖关系,并输出未来流量情况。实验结果表明,所提模型与最优基线模型解耦动态时空图神经网络(decoupled dynamic spatial-temporal graph neural network,D2STGNN)相比,平均绝对误差降低了1.63%,模型训练时间缩短了近2.5倍。本研究有效提升了交通流量预测的准确性与效率,为智能交通系统的建设提供了有力支撑。Abstract: To address the limitations of existing traffic flow prediction methods in modeling spatio-temporal data and capturing dynamic spatial correlations, a spatio-temporal dynamic graph network(STDGNet) is proposed. This model adopts an encoder-decoder architecture with an embedding layer and utilizes a dynamic graph generation module to uncover potential spatio-temporal relationships from a data-driven perspective, reconstructing the dynamic correlation graph of nodes at each time step. The embedding layer employs a spatio-temporal adaptive embedding method to model the intrinsic spatio-temporal relationships and temporal information of traffic data. The encoder part uses a spatio-temporal memory attention mechanism to model spatio-temporal features from a global perspective. The decoder part incorporates a graph convolution module into a recurrent neural network to simultaneously capture temporal and spatial dependencies and output future traffic conditions. Experimental results show that, compared with the optimal baseline model decoupled dynamic spatial-temporal graph neural network(D2STGNN), the proposed model reduces mean absolute error by an average of 1.63% and reduces model training time by nearly 2.5 times. This study effectively improves the accuracy and efficiency of traffic flow prediction, providing strong support for the development of intelligent transportation systems.
-
智能交通系统作为现代智慧城市的重要组成部分,已广泛应用于交通状况的分析、管理与优化[1-2]。通过对交通数据的实时处理与预测,该系统不仅能够为交通管理部门提供决策支持,还能为居民出行提供高效、精准的路径规划服务[3-5]。
早期的交通流量预测系统主要基于统计学习模型和机器学习模型[6-7]。然而,这类模型在捕捉时间序列中的非线性关系方面存在局限,且严重依赖特征工程,难以有效捕获深层的时空相关性。随着深度学习的不断发展,深度学习模型被广泛应用于图像处理、自然语言处理等领域。循环神经网络(recurrent neural network,RNN)及其变种能够建模时间相关性和处理非线性问题,常用于时间序列预测[8],但它们忽略了路网的空间结构特征,且无法捕捉交通序列之间的长期依赖关系。一些研究人员尝试使用卷积神经网络(convolutional neural network,CNN)对交通流量数据进行空间建模[9],但CNN只能学习欧氏空间下的交通流量特征,限制了模型对微观交通流动和特殊路况的泛化能力。
目前,交通流量预测模型广泛使用图卷积网络(graph convolutional network,GCN)对空间信息进行建模[10-12],并取得了良好的预测结果。例如,Jiang等[13]构建了GCN和门控递归单元(gate recurrent unit,GRU)的混合架构进行流量预测;Shin等[14]使用GCN捕获交通数据的空间关联特征,并利用时间卷积网络(temporal convolutional network,TCN)提取细粒度的时间特征。尽管基于GCN的方法在交通流量预测任务上取得了一定的成效,但它们通常需要预定义图来表示交通网络的底层空间拓扑关系,以对道路网络中的非欧几里得空间相关性进行建模。由于交通数据的时空特性和节点的复杂关联,基于GCN的方法仍存在以下问题和挑战:
1)如何捕捉路网节点之间的动态时空相关性。交通空间的图结构直接影响模型预测的准确性,然而现有方法在构建该图时过于依赖先验知识,忽略了交通网络的动态性质以及不相邻节点间的隐含依赖关系。例如,地理位置较远、无直接道路连接的节点,可能因功能相似或受到同一交通因素影响而表现出高度相似的流量模式。此外,某些地理邻近的节点,其关联强度也会随时间变化而发生动态调整,如早高峰期间相关性增强、非高峰期则减弱。可知,每个节点的流量与其他节点是相互关联的,其关联性的强弱随时间变化。
2)如何有效建模时空数据。在实际交通系统中,空间与时间的依赖关系相互交织,并随着时间推移而不断演变[15]。然而,大多数现有交通预测模型未能充分建立交通模式的动态变化模型,导致预测精度受限。交通流量在一天中的不同时间段存在明显波动,尤其在早晚高峰期间表现出突出的周期性特征。此外,工作日与周末、节假日之间的交通状况也存在显著差异,这意味着交通流量预测需要考虑周期性变化和非线性关系,增加了预测难度。更进一步,不同地理位置的节点往往呈现出不同的交通模式,例如城市中心区域的节点可能在高峰期经历严重拥堵,而城市郊区的主干道节点则相对通畅,体现出不同区域间交通行为的差异性。因此,建模时需充分考虑节点间的异质性以及随时间演变的时空依赖关系。
为解决上述问题,本文在兼顾节点动态相关性和交通模式的基础上,提出了一种时空动态图卷积网络(spatio-temporal dynamic graph network,STDGNet)。该模型能够在缺乏先验知识的情况下构建节点之间的动态关联关系,充分考虑了路网的真实状态。首先,该方法通过结合多类型数据嵌入,将必要的知识纳入模型,更充分地挖掘交通流量数据中的时空特征;接下来,利用时空记忆注意力机制深入探索全局的时空关系,并使用门控融合机制融合建模后的交通数据;最后,通过动态图生成模块逐步生成动态邻接矩阵,并辅助图卷积循环网络预测城市未来交通流量状态。
本文贡献如下:
1)提出了一种结合时空记忆注意力机制和图卷积循环网络的交通流量预测模型,能够对复杂且动态的时空交通数据进行建模,并学习潜在的空间关系。
2)提出了时空自适应嵌入方法,有效建模交通数据的内在时空关系。进一步设计了动态图生成模块,在图结构未知的场境下捕获随时间变化的空间相关性。
3)在3个真实交通数据集上对所提模型的有效性进行实验验证。实验结果表明,与最优基线模型解耦动态时空图神经网络(decoupled dynamic spatial-temporal graph neural network,D2STGNN)相比,本文模型平均绝对误差降低了1.63%,与目前最新的时空关键图神经网络(spatio temporal pivotal graph neural networks,STPGNN)模型相比,平均绝对误差降低了1.80%。
1. 交通流量预测方法的现状
1.1 基于传统方法的交通流量预测
早期研究主要基于统计学习方法[16-18],其中自回归综合移动平均法(auto-regressive integrated moving average,ARIMA)能够利用差分过程处理非平稳数据,在交通状态预测任务中得到了广泛应用。Williams等[19]提出了使用ARIMA对车辆交通流量进行建模和预测。在此基础上,Raza等[20]通过将ARIMA方法和卡尔曼滤波相结合,提高了预测精度。尽管基于统计学的模型实现相对简单,但在预测不确定、复杂的交通流量数据时效果较差,无法满足当前现实需求。为了解决上述问题,研究者提出了基于机器学习的方法[21-22]。Xia等[23]提出了一种基于时空加权K最近邻方法的分布式体系结构模型,该模型综合考虑上下游交通信息。Sun等[24]提出一种基于K均值聚类和GRU的预测模型,通过聚类建立不同流量模式,确定与待预测日期最相似的历史流量模式,提高了预测的准确度。机器学习方法可以有效地捕获时间序列中的非线性特征,但它们无法有效建模交通数据间复杂的时空相关性。
1.2 基于图神经网络的交通流量预测
图神经网络因其能够对图结构化数据进行有效建模,在交通流量预测任务中展现了卓越的性能[25]。Yu等[26]是最早使用图神经网络来预测交通流量的模型之一,结合了空间图卷积和时间门控卷积来捕获时空依赖。随后,Guo等[12]引入时空注意力机制,对节点间的动态特征进行建模,进一步提升了模型对交通流动态变化的响应能力和预测精度。Guo等[27]进一步组合了学习空间结构的GCN和提取时间信息的注意力机制。Li等[28]创建交通流量预测方法中另一个开创性模型,集成了GRU和双向扩散卷积,使用双向图随机游走建模空间依赖性,并通过GRU捕获时间动态性。上述方法主要依赖预定义的静态图结构,无法建模节点间的动态依赖关系。为应对时空建模中图结构不确定性带来的挑战,Bai等[29]提出了一种融合自适应图卷积与GRU的图神经网络架构。该方法利用可学习的邻接矩阵,根据数据驱动的方式动态构建图结构,有效挖掘潜在的空间依赖关系;同时引入GRU,提升模型对时间序列中长期依赖信息的建模能力。Wu等[30]提出基于图神经网络的多变量时间序列预测模型,该模型通过图学习模块融入外部知识和变量之间的单向关系,并结合时间卷积模块捕获时空相关性。虽然自适应图结构可以缓解预定义图的局限性,但仍然属于静态空间依赖建模方法,无法充分提取道路网络中空间动态变化性质。Li等[31]通过结合预定义图与动态特征生成邻接矩阵以建模动态空间依赖。Kong等[32]通过余弦相似度构造关键点图结构与预定义图结合实现对交通网络的空间相关性建模。然而,上述基于动态图的方法仍依赖预定义的图结构,不适用于缺乏先验知识的情景。
2. 基于时空动态图的网络模型
2.1 问题定义
交通流量预测旨在根据历史观测数据,对交通系统未来某一时刻的交通流量进行预测。交通流量预测问题可以表示为给定历史
${T_h}$ 个时间片的交通流量,学习一个映射函数F,该函数可以预测未来${T_f}$ 个时间片的交通流量,该过程描述为$$ \left[ {{{\boldsymbol{X}}_{t - {T_h} + 1}}\;\;\;{{\boldsymbol{X}}_{t - {T_h} + 2}}\;\;\; \cdots \;\;\;{{\boldsymbol{X}}_t}} \right]\mathop \to \limits^F \left[ {{{\boldsymbol{X}}_{t + 1}}\;\;\;{{\boldsymbol{X}}_{t + 2}}\;\;\; \cdots \;\;\;{{\boldsymbol{X}}_{t + {T_f}}}} \right] $$ 式中:
${{\boldsymbol{X}}_t} \in {{\bf{R}}^{N \times C}}$ 为在时间t上观察到的交通数据,C为描述交通状况的特征数量(例如交通流量、交通速度等)。2.2 STDGNet模型介绍
STDGNet模型采用在输入数据上嵌入特征的编码器–解码器框架,总体结构如图1所示。在数据嵌入层,该模型将原始交通数据与属性信息进行嵌入,不仅捕捉了交通数据的时空关系和顺序信息,还生成了更丰富的高维嵌入矩阵。编码器层由时空记忆注意力机制和门控融合模块构成,旨在提取高维嵌入矩阵中的时空特征,并进行有效融合。解码器设计了动态图生成模块,计算得出动态关联图,并使用图卷积循环神经网络对时空编码后的交通数据进行解码和预测。
2.3 数据嵌入层
为了更好地提取原始数据的特征,嵌入层通过全连接将原始数据映射到高维特征空间
$$ {\boldsymbol{X}}_{\text{data}}\in{\bf{R}}^{T\times N\times d} $$ 式中d为数据嵌入维度。
交通流量预测的准确性在很大程度上依赖于历史交通数据中的时间特性因素。由于人类出行行为具有较强的周期性规律,例如工作日与周末、高峰时段与非高峰时段的流量差异,时间因素在建模与预测过程中起着关键作用。为建模交通数据中的时间模式和周期性规律,嵌入层对时间属性进行嵌入编码。首先,将一周的时间划分为7个时间区间命名为周索引;再将一天的时间以5 min为步长,划分为288个时间区间命名为分钟索引;最后,分别对周索引和分钟索引进行编码,将时间信息转换为稠密的向量,表示为
$$ {{\boldsymbol{X}}_{{\mathrm{w}}}},{{\boldsymbol{X}}_{{\mathrm{d}}}} \in {{\bf{R}}^{T \times (d/2)}} $$ 交通流量之间的时间关系不仅由时间序列的周期性决定,还受时间步顺序的影响。邻近的时间步理应具有相似的时间序列。此外,道路网络的空间布局也是交通状况的重要影响因素之一。现有预测方法大多数采用传统的静态空间嵌入方法,但在真实场景下,道路中两点之间的相关性是动态变化的,且城市不同区域的流量特性往往不同。为此,本文提出了时空自适应嵌入方法,该方法为传感器的每个时间步嵌入一个自适应变量,既考虑传感器之间潜在时空关联性,又自适应生成交通网络节点的时空嵌入向量,最终得到时空自适应嵌入向量
${{\boldsymbol{X}}_{{\text{ste}}}} \in {{{\bf{R}}}^{T \times N \times d}}$ 。通过上述嵌入,嵌入层的输出为
${{\boldsymbol{X}}_{{\text{emb}}}} \in {{\bf{R}}^{T \times N \times D}}$ ,计算公式为$$ {{\boldsymbol{X}}_{{\mathrm{emb}}}} = {\text{Concat}}({{\boldsymbol{X}}_{{{\mathrm{data}}}}},{{\boldsymbol{X}}_{{\mathrm{w}}}},{{\boldsymbol{X}}_{{\mathrm{d}}}},{{\boldsymbol{X}}_{{{\mathrm{ste}}}}}) $$ 式中D为嵌入层输出的维度。
2.4 编码器
2.4.1 时空记忆注意力机制
为了捕获交通网络节点间的时空依赖关系,本文分别在时间轴和空间轴使用了记忆注意力机制。在时间轴上,时间记忆注意力机制用于建模不同时间步之间的非线性依赖性。在空间轴上,空间记忆注意力机制用于建模不同道路之间的交通影响。与传统的自注意力机制不同,记忆注意力机制通过引入外部记忆单元
${\boldsymbol{M}} \in {{\bf{R}}^{m \times D}}$ ,来捕捉不同样本间的潜在关系,其中m为记忆单元的存储容量。将带有T个时间步和N个空间点的时空数据表示为${\boldsymbol{X}} \in {{\bf{R}}^{T \times N \times D}}$ 。时间记忆注意力机制的定义为$$ \begin{gathered}A=\text{Softmax}\left(\boldsymbol{QM}_{\mathrm{\mathit{T}}}^{\text{T}}\right) \\ \text{Memory\_Attention}\left(\boldsymbol{Q}\right)=\boldsymbol{AM}_{\mathrm{\mathit{T}}}\end{gathered} $$ 式中:Q为输入X的查询值,
$ \mathit{{{\boldsymbol{M}}}}_{{T}}\mathit{ } $ 为时间记忆单元,${\boldsymbol{A}} \in {{\bf{R}}^{T \times m}}$ 为输入数据与时间记忆单元之间的注意力矩阵。最终,时间记忆注意力机制的输出为${{\boldsymbol{H}}_{\mathrm{T}}} \in {{\bf{R}}^{T \times N \times D}}$ 。$$ {{\boldsymbol{H}}_{\rm{T}}} = {\text{Memory\_Attention}}\left( {{{\boldsymbol{X}}_{:n:}}} \right) $$ 式中
${{\boldsymbol{X}}_{:n:}}$ 为X的第n个节点的时间步信息切片。此外,在记忆注意力机制之后应用了残差连接、层归一化和前馈网络,其结构与Transformer编码器层相似。类似地,空间记忆注意力机制的定义为$$ {{\boldsymbol{H}}_{\mathrm{S}}} = {\text{Memory\_Attention}}\left( {{{\boldsymbol{X}}_{t::}}} \right) $$ 式中
$ {{\boldsymbol{X}}_{t::}} $ 为X的第t个时间步的节点信息切片。2.4.2 门控融合模块
来自时间和空间记忆注意力机制的输出蕴含着丰富的时空信息。为此,本文设计了一种融合机制,能够自适应地将时空注意力机制的输出进行融合。相较于简单的拼接,门控融合可以根据输入数据提取和强调不同特征的重要性,从而增强特征的表达能力,融合过程为
$$ {{\boldsymbol{H}}_{{\mathrm{ST}}}} = {{\textit{z}}_1} \odot {{\boldsymbol{H}}_{\mathrm{S}}} + \left( {1 - {{\textit{z}}_1}} \right){{\boldsymbol{H}}_{\rm{T}}} $$ $$ {{\textit{z}}_1} = {\mathrm{sigmoid}}\left( {{{\boldsymbol{H}}_{\mathrm{S}}}{{\boldsymbol{W}}_{{\textit{z}}1}} + {{\boldsymbol{H}}_{\rm{T}}}{{\boldsymbol{W}}_{{\textit{z}}2}} + {b_{{\textit{z}}1}}} \right) $$ 式中:
${{\boldsymbol{W}}_{{\text{{\textit{z}}1}}}}$ 、${{\boldsymbol{W}}_{{\text{{\textit{z}}2}}}}$ 以及${b_{{\text{{\textit{z}}1}}}}$ 均为可学习参数,$ \odot $ 为逐元素乘积,${{\boldsymbol{H}}_{{\text{ST}}}} \in {{\bf{R}}^{T \times N \times D}}$ 为门控融合模块的输出。在编码器和解码器之间,通过二维卷积将${{\boldsymbol{H}}_{{\text{ST}}}}$ 转换为${{\boldsymbol{H}}_{\text{0}}} \in {{\bf{R}}^{N \times D}}$ ,以作为解码器初始隐藏状态向量。2.5 解码器
GCN通过邻接矩阵聚合邻居节点的信息来提取目标节点的空间特征。循环神经网络通过引入循环连接,使得模型能够记忆和传递先前时间步的信息。受文献[29]的启发,在解码器中采用图卷积循环单元(graph convolutional recurrent unit,GCRU),将图卷积操作与GRU相结合,以同时捕捉空间和时间相关性。GCRN作为解码器的基本单元,更新过程为
$$ {{\boldsymbol{H}}_{{\mathrm{GCRU}}}} = \sigma \left( {{\boldsymbol{X}} \star \varsigma {\boldsymbol{W}}} \right) = \sigma \left( {\mathop \sum \limits_{k = 0}^K {{\widetilde {\boldsymbol{P}}}^k}{\boldsymbol{X}}{{\boldsymbol{W}}_k}} \right) $$ $$ \left\{ \begin{gathered} {u_t} = {\mathrm{sigmoid}}\left( {\left[ {{{\boldsymbol{X}}_t},{{\boldsymbol{H}}_{t - 1}}} \right] \star \varsigma {{\boldsymbol{W}}_{\mathrm{u}}} + {{\boldsymbol{b}}_{\mathrm{u}}}} \right) \\ {r_t} = {\mathrm{sigmoid}}\left( {\left[ {{{\boldsymbol{X}}_t},{{\boldsymbol{H}}_{t - 1}}} \right] \star \varsigma {{\boldsymbol{W}}_{\mathrm{r}}} + {{\boldsymbol{b}}_{\mathrm{r}}}} \right) \\ {c_t} = \tanh \left( {\left[ {{{\boldsymbol{X}}_t},\left( {{r_t} \odot {{\boldsymbol{H}}_{t - 1}}} \right)} \right] \star \varsigma {{\boldsymbol{W}}_{\mathrm{c}}} + {{\boldsymbol{b}}_{\mathrm{c}}}} \right) \\ {{\boldsymbol{H}}_t} = {u_t} \odot {{\boldsymbol{H}}_{t - 1}} + \left( {1 - {u_{t - 1}}} \right) \odot {c_t} \\ \end{gathered} \right. $$ 式中:
${\boldsymbol{X}} \in {{\bf{R}}^{N \times D}}$ 和${{\boldsymbol{H}}_{{\text{GCRU}}}} \in {{\bf{R}}^{N \times h}}$ 为图卷积运算($ \star \varsigma $ )的输入和输出,${\boldsymbol{W}}$ 、${{\boldsymbol{W}}_k}$ 为切比雪夫多项式的k阶核参数,$ \text{σ(·)} $ 为激活函数,$ {{\mathrm{u}}} $ 、$ {{\mathrm{r}}} $ 、$ {{\mathrm{c}}} $ 分别为GCRU单元中的更新门、重置门和候选门,${{\boldsymbol{W}}_{\left\{ {{\text{u,r,c}}} \right\}}}$ 与${{\boldsymbol{b}}_{\left\{ {{\text{u,r,c}}} \right\}}}$ 均为可学习参数。为了减少超参数的数量,解码器隐藏向量维度$ \mathit{{h}}\mathit{ } $ 与嵌入层输出维度$ {D} $ 保持一致。除了
${{\boldsymbol{X}}_t}$ 之外,GCRU还需要一个额外的拓扑图$ \widetilde {\boldsymbol{P}} $ 。如图2所示,传统的图卷积网络模型通过预先定义的静态图来学习空间关联关系。然而,城市交通状况复杂,地理位置邻近无法准确反映空间依赖特性。为此,本文设计了动态图生成模块,基于历史时间步的信息动态更新邻接矩阵。以解码器第2个时间步为例,使用滑动窗口获取过去
${T_h}$ 个时间步的隐藏向量进行拼接,形成一个新的隐藏向量$ \boldsymbol{h}_{\mathrm{gt}}^{\left(2\right)} $ 。动态图生成模块进一步从隐藏向量中推断节点相关性,推断公式为$$ \boldsymbol{D}_{\mathrm{A}}=\mathrm{Softmax}\left(\left(\boldsymbol{h}_{\mathrm{gt}}^{\left(2\right)}\boldsymbol{W}_{\mathrm{q}}\right)\left(\boldsymbol{h}_{\mathrm{gt}}^{\left(2\right)}\boldsymbol{W}_{\mathrm{q}}\right)^{\mathrm{T}}\right) $$ $$ \left\{ \begin{gathered} {{\boldsymbol{E}}_{{\mathrm{g}}1}} = {{\boldsymbol{D}}_{\mathrm{A}}}*{{\boldsymbol{W}}_{{\mathrm{g}}1}} \\ {{\boldsymbol{E}}_{{\mathrm{g}}2}} = {{\boldsymbol{D}}_{\mathrm{A}}}*{{\boldsymbol{W}}_{{\mathrm{g}}2}} \\ \widetilde {\boldsymbol{P}} = {\mathrm{Softmax}}\left( {{\mathrm{ReLU}}\left( {{{\boldsymbol{E}}_{{\mathrm{g}}1}}{{\boldsymbol{E}}_{{\mathrm{g}}2}}^{\mathrm{T}}} \right)} \right) \\ \end{gathered} \right. $$ 式中:
${{\boldsymbol{W}}_{\text{q}}}$ 为可学习参数,$ {{\boldsymbol{D}}_{\mathrm{A}}} $ 为节点间相关性权重矩阵,$ {{\boldsymbol{D}}_{\mathrm{A}}} $ 取值越大表示节点间相关性越强。通过$ {{\boldsymbol{D}}_{\mathrm{A}}} $ 调节2个自适应节点矩阵${{\boldsymbol{W}}_{{\mathrm{g}}1}}$ 、${{\boldsymbol{W}}_{{\mathrm{g}}2}}$ ,得到动态图生成模块的输出$ \widetilde {\boldsymbol{P}} $ 。3. 实验及结果分析
3.1 数据集
为了验证本文所提模型的预测性能,本文在3个真实交通数据集PEMS04、PEMS07和PEMS08进行实验,数据集信息如表1所示。为了与大多数现代方法保持一致,本文分别将3个数据集按6∶2∶2的比例划分为训练集、验证集和测试集。
表 1 数据集说明Table 1 Dataset description数据集 传感器数量/个 时间步长/min 时间跨度 PEMS04 307 16992 01/2018~02/2018 PEMS07 883 28224 05/2017~08/2017 PEMS08 170 17856 07/2016~08/2016 3.2 实验参数设置
所有实验均在NVIDIA A10和30 GB内存的机器上运行,使用的实验环境为PyTorch 1.11和Python 3.7。本文利用过去一小时(
${T_h}{\text{ = 12}}$ )的数据来预测未来一小时(${T_f}{\text{ = 12}}$ )的交通流量。模型的超参数由验证集的性能所决定,具体设置如下:数据嵌入维度d设置为32,记忆单元的存储容量m设置为30,学习率lr设置为0.001,批量大小设置为16,优化器采用AdamW优化器,损失函数为L1 Loss,训练epoch为200。3.3 评估指标
在实验中,本文采用平均绝对误差(mean absolute error,MAE)EMA、均方根误差(root mean square error,RMSE)ERMS和平均绝对百分比误差(mean absolute percentage error,MAPE)EMAP作为评价指标来评估模型的准确性,计算方法为
$$ \begin{gathered} E_{\mathrm{MA}} = \frac{1}{N}\left( {\mathop \sum \limits_{i = 1}^N \left| {\left( {{{\boldsymbol{y}}_i} - {{\widehat {\boldsymbol{y}}}_i}} \right)} \right|} \right) \\ E_{\mathrm{RMS}} = \sqrt {\frac{1}{N}\left( {\mathop \sum \limits_{i = 1}^N {{\left( {{{\boldsymbol{y}}_i} - {{\widehat {\boldsymbol{y}}}_i}} \right)}^2}} \right)} \end{gathered}$$ $$E_ {\mathrm{MAP}} = \frac{1}{N}\left( {\mathop \sum \limits_{i = 1}^N \left| {\frac{{\left( {{{\boldsymbol{y}}_i} - {{\widehat {\boldsymbol{y}}}_i}} \right)}}{{{{\boldsymbol{y}}_i}}}} \right|} \right) $$ 式中:
$ {N} $ 为样本数据个数,${{\boldsymbol{y}}_i}$ 为真实值,${\widehat {\boldsymbol{y}}_i}$ 为预测值。3.4 基准模型
为了验证模型的有效性,本文选取以下模型进行对比。
1)基于传统方法的模型
HI(historical inertia)[33]:使用历史平均法对未来车速进行预测。
LSTM(long short-term memory)[34]:长短期记忆网络,通过学习长期依赖关系捕捉序列数据中的时序信息。
2)基于预定义图的图神经网络模型
STGCN(spatio-temporal graph convolutional network)[26]:通过堆叠一维门控卷积块和图卷积块,进行时空交通流量预测。
ASTGNN(adaptive spatial-temporal graph neural network)[27]:使用动态图卷积模块建模空间依赖,并采用时间感知多头自注意力机制捕捉动态时间依赖关系。
DCRNN(diffusion convolutional recurrent neural network)[28]:将扩散卷积层与循环单元相结合以进行时空预测。
3)基于自适应的图神经网络模型
AGCRN(adaptive graph convolutional recurrent network)[29]:使用自适应图卷积和GRU捕捉空间和时间的依赖关系。
MTGNN(multivariate time series forecasting with graph neural network)[30]:使用图生成模块学习单向邻接矩阵,并使用GNN和膨胀卷积进行多变量时间序列预测。
GWNet(graph waveNet)[25]:结合自适应图卷积和扩张的随机卷积捕捉时空依赖关系。
4)基于动态图的图神经网络模型
DGCRN(dynamic graph convolutional recurrent network)[31]:利用超网络生成动态邻接矩阵,集成GCN与GRU进行流量预测。
STWave[35]:对复杂的流量数据进行分解,通过双通道时空网络分别建模趋势和事件。
D2STGNN[36]:采用扩散模型和固有模型分解交通信号,并通过自注意力机制生成动态空间依赖。
STPGNN[32]:通过并行图卷积框架同时捕捉关键节点和非关键节点的时空关系。
3.5 实验结果与分析
实验结果如表2所示。
表 2 不同模型在3个数据集上的性能比较Table 2 Performance comparison of different models on three datasets方法 指标 PEMS04 PEMS07 PEMS08 @3 @6 @12 均值 @3 @6 @12 均值 @3 @6 @12 均值 HI MAE 42.33 42.35 42.37 42.36 49.02 49.03 49.06 49.04 34.55 34.57 34.59 34.57 RMSE 61.64 61.66 61.67 61.66 71.16 71.18 71.20 71.18 50.41 50.43 50.44 50.43 MAPE/% 29.90 29.92 29.96 29.92 22.73 22.75 22.79 22.75 21.60 21.63 21.68 21.63 LSTM MAE 21.37 23.72 26.76 23.81 20.42 35.18 38.37 37.06 19.52 22.25 26.17 22.07 RMSE 33.31 36.58 40.28 36.62 33.21 52.91 56.82 55.73 29.73 33.30 38.97 31.02 MAPE/% 15.21 18.02 20.94 18.12 8.79 9.80 12.23 9.96 12.54 14.23 17.32 14.04 GWNet MAE 17.89 18.87 20.46 18.87 18.81 20.29 22.59 20.26 13.70 14.82 16.30 14.75 RMSE 28.89 30.27 32.46 30.25 30.70 33.27 37.03 33.38 21.74 23.68 26.18 23.64 MAPE/% 12.89 13.61 15.60 13.82 7.92 8.61 9.72 8.60 8.89 9.37 10.50 9.49 AGCRN MAE 18.47 19.32 20.59 19.29 19.28 20.75 22.76 20.69 14.47 15.68 17.65 15.69 RMSE 29.58 31.08 33.06 31.02 31.67 34.67 38.26 34.59 22.64 24.62 27.56 24.65 MAPE/% 12.49 13.25 13.93 13.20 8.13 8.83 9.69 8.75 9.33 10.22 11.42 10.19 MTGNN MAE 18.22 19.06 20.43 19.07 19.39 21.02 23.64 21.01 14.25 15.34 16.79 15.28 RMSE 29.52 31.14 33.30 31.07 31.30 34.21 38.45 34.25 22.38 24.35 26.61 24.20 MAPE/% 12.65 13.21 13.93 13.11 8.46 9.11 10.12 9.05 9.17 10.56 11.34 10.41 DCRNN MAE 18.49 19.71 21.76 19.73 19.49 21.21 24.20 21.23 14.15 15.22 16.93 15.22 RMSE 29.40 31.19 34.02 31.25 31.26 34.21 38.63 34.23 22.19 24.19 26.92 24.18 MAPE/% 12.73 13.57 15.16 13.61 8.26 8.94 10.36 9.01 9.48 10.17 11.32 10.18 STGCN MAE 18.93 19.87 21.51 19.90 20.54 22.13 24.76 22.13 15.03 16.02 17.96 16.13 RMSE 30.07 31.68 34.15 31.72 32.72 35.57 39.90 35.65 23.38 25.24 28.07 25.32 MAPE/% 13.13 13.69 14.91 13.78 8.91 9.33 10.57 9.50 9.92 10.58 11.66 10.66 ASTGNN MAE 18.03 19.14 21.17 19.18 19.00 20.96 24.18 20.92 13.45 14.56 16.40 14.57 RMSE 29.25 31.02 33.84 31.06 30.87 33.97 38.48 33.95 21.96 24.11 27.12 24.13 MAPE/% 12.33 13.01 14.34 13.04 8.19 9.18 10.89 9.17 8.75 9.35 10.49 9.43 DGCRN MAE 17.87 18.86 20.34 18.82 19.24 20.98 26.42 21.45 13.73 14.93 16.88 14.95 RMSE 28.95 30.63 32.90 30.57 31.09 34.55 40.29 34.53 21.73 23.78 26.62 23.77 MAPE/% 12.39 13.08 14.14 13.03 8.12 8.88 11.72 9.21 8.87 9.66 10.97 9.69 STWave MAE 17.64 18.68 20.03 18.64 18.53 19.77 21.45 19.78 13.01 13.79 14.96 13.85 RMSE 28.98 30.62 32.64 30.55 31.46 34.03 37.01 34.02 22.19 24.11 26.13 24.06 MAPE/% 11.89 12.62 13.68 12.62 7.69 8.18 8.98 8.21 9.05 9.61 10.60 9.45 D2STGNN MAE 17.58 18.42 19.83 18.41 18.25 19.72 21.90 19.67 13.20 14.10 15.42 14.15 RMSE 28.77 30.13 32.01 30.06 30.13 32.78 36.31 32.70 21.53 23.45 25.86 23.43 MAPE/% 12.25 12.76 13.68 12.75 7.73 8.31 9.24 8.29 8.91 9.39 10.31 9.36 STPGNN MAE 17.65 18.53 20.17 18.56 18.56 19.98 22.31 19.97 13.03 13.83 15.34 13.89 RMSE 28.82 30.10 32.51 30.08 30.53 33.01 36.55 32.85 21.75 23.59 26.13 23.51 MAPE/% 12.17 12.91 14.47 13.02 7.73 8.36 9.42 8.37 9.01 9.30 10.37 9.34 STDGNet MAE 17.53 18.21 19.31 18.22 18.22 19.49 21.37 19.50 12.84 13.68 14.99 13.72 RMSE 28.74 30.07 31.83 30.01 30.47 33.15 36.98 33.22 21.48 23.20 25.58 23.20 MAPE/% 11.66 12.01 12.74 12.05 7.60 8.09 8.92 8.18 8.70 9.23 10.20 9.30 注:加黑代表最佳结果,下划线代表次优结果。 表2中@3、@6和@12分别是模型在15、30和60 min的预测结果。本文在PEMS04、PEMS07和PEMS08这3个数据集上进行对比实验,得出以下结论:
1)基于图神经网络的模型在预测准确度上优于传统方法,这是由于传统方法(如HI和LSTM)只考虑时间相关性,忽略了复杂的空间特性。而基于图神经网络的模型利用了交通网络的结构信息,从而提升了预测性能,说明空间结构信息对交通预测至关重要。
2)基于自适应图的方法(如GWNet、MTGNN、AGCRN)总体上优于基于预定义图的方法(如STGCN、ASTGNN、DCRNN)。自适应图能够根据输入数据提取潜在的空间依赖,从而提高交通流量预测的性能。而预定义图所表示的路网结构通常不是最优的,进而无法保证模型的效果。
3)基于动态图的方法由于能够建模节点的动态相关性,因此取得了良好的表现。DGCRN利用动态特征(时间戳和速度)来调整预定义的图结构以建模动态空间依赖,但其只考虑了当前时间步的空间关系导致预测性能不高。D2STGNN和STWave利用注意力机制捕捉空间相关性,考虑空间相关性的同时考虑上下文关联,但其忽略了交通空间的动态特征,对空间特征提取不够充分。STPGNN通过评分函数构造关键节点关联图,并利用时域图卷积来获取时空关联,但在非关键节点的空间关系上仍采用预定义图,且时空数据建模过于简单,未能将必要的知识纳入模型。本文提出的模型不仅考虑了空间动态相关性,还使用时空自适应嵌入学习节点的内在模式关系,因此本文模型在预测结果上优于上述模型。
4)本文提出的模型在大部分数据集上优于基准模型,其中在MAE和MAPE 这2个指标下与最优方法D2STGNN相比,分别有1.63%和2.48%的预测性能提升。实验结果表明本文所提模型具有优越的预测能力,充分证明了动态时空建模的有效性。随着预测时间步长的增加,交通预测面临更复杂的动态变化,不同方法的性能均有所下降,但本文模型的下降幅度最小。这是因为本文模型设计了时空记忆注意力机制,利用记忆单元提取全局时空相关性,获取长期时空依赖关系。因此,本文模型在长期流量预测任务中也表现出了明显优势。
3.6 消融实验
为了评估不同组件对模型性能的贡献,本文在PEMS08数据集上进行消融实验,并设置了5种变体模型。
1)w/o Emb:删除时空自适应嵌入。
2)w/o DGraph:删除动态图生成模块,采用自适应图替代动态关联图。
3)w/o TrAtt:删除时间记忆注意力机制。
4)w/o SpAtt:删除空间记忆注意力机制。
5)w/o SelfAtt:改用自注意机制替换时空记忆注意力机制。
消融实验的结果如表3所示,所有变体模型的设置均与本文模型保持一致。表3中给出了模型在15、30和60 min的预测结果,结果表明,STDGNet的性能优于其他变体模型;w/o Emb模型表明时空自适应嵌入能有效建模交通数据时空关系;w/o DGraph模型表明挖掘动态空间依赖对交通流量预测至关重要。虽然自适应图优于预定义图,但仍难以捕捉随时间变化的动态模式,而动态图则可根据交通数据变化实时重构节点间的关联关系。w/o TrAtt模型与w/o SpAtt模型表明在时空记忆注意力机制能有效建模交通数据中动态时空特性;此外,w/o SelfAtt模型表明使用时空记忆注意力机制能有效提取全局时空信息。本文所提模型在MAE、RMSE和MAPE指标上均优于变体模型,证实了本文模型中每个组件的有效性。
表 3 基于PEMS08的消融实验Table 3 Ablation study on PEMS08模型 @3 @6 @12 MAE RMSE MAPE/% MAE RMSE MAPE/% MAE RMSE MAPE/% w/o Emb 13.59 22.64 8.99 14.79 24.78 9.91 16.88 28.09 10.93 w/o DGraph 13.44 22.36 8.83 14.53 24.54 9.52 15.89 27.19 10.42 w/o TrAtt 13.01 21.68 8.71 13.91 23.59 9.29 15.30 26.18 10.29 w/o SpAtt 13.03 21.74 8.85 13.99 23.67 9.38 15.36 26.38 10.38 w/o SelfAtt 13.12 21.58 9.01 13.89 23.29 9.33 15.06 25.59 10.23 STDGNet 12.84 21.48 8.70 13.68 23.20 9.23 14.99 25.58 10.20 3.7 网络超参数设置的影响
为系统评估模型关键超参数对性能的影响,本文在PEMS04与PEMS08数据集上开展对比实验,重点分析数据嵌入维度d与记忆单元存储容量m对模型预测能力的影响。
从表4中可以看出,当数据嵌入维度为32时,模型达到了最优的预测结果。较小的维度无法提取复杂特征,导致预测结果较差;较大的维度增加了模型复杂度,导致过拟合或难以学习有效表示,影响性能。
表 4 嵌入维度分析结果Table 4 Analysis results of embedding dimension嵌入维度 PEMS04 PEMS08 MAE RMSE MAPE/% MAE RMSE MAPE/% 8 19.21 30.89 12.80 14.79 23.99 9.74 16 18.69 30.39 12.31 14.11 23.49 9.35 32 18.22 30.01 12.05 13.72 23.20 9.30 64 18.76 31.35 12.23 14.06 24.03 9.49 从表5的实验结果可以看出,对于记忆单元的存储容量,当设置的存储容量较大时,相应的也会受到更大的数据噪声干扰。而存储容量设置较小时,模型无法捕捉足够的模式信息,导致预测性能降低。因此,当存储容量设置为30个时,模型效果最佳。
表 5 记忆单元存储容量分析结果Table 5 Analysis results of memory unit storage capacity存储容量/个 PEMS04 PEMS08 MAE RMSE MAPE/% MAE RMSE MAPE/% 10 18.39 30.52 12.22 14.79 23.78 9.55 20 18.31 30.21 12.14 14.18 23.49 9.37 30 18.22 30.01 12.05 13.72 23.20 9.30 40 18.38 30.52 12.29 13.91 23.77 9.35 50 18.47 30.78 12.35 13.97 23.48 9.40 3.8 效率实验
为了评估模型的计算代价,将本文模型与基于自适应图和动态图的方法进行比较,批量大小统一设置为8,结果如表6所示。
表 6 效率实验Table 6 Efficiency studys 方法 PEMS04 PEMS07 PEMS08 训练时间 推理时间 训练时间 推理时间 训练时间 推理时间 AGCRN 79.57 12.52 321.72 43.56 77.65 10.39 GWNet 44.38 6.23 173.56 24.85 43.62 5.50 MTGNN 37.86 4.50 103.10 12.20 36.93 4.17 DGCRN 262.80 73.13 793.22 239.03 247.49 65.98 STWave 92.57 13.23 388.20 58.54 87.03 9.07 D2STGNN 162.86 17.88 1019.65 119.95 138.78 13.45 STPGNN 48.39 4.53 199.01 14.58 43.93 4.26 STDGNet 75.35 8.48 296.56 37.54 71.55 7.50 结果表明,本文模型在训练和推理阶段均实现了良好的计算效率。与基于自适应图的方法相比,本文模型不会增加过多的计算负担。与基于动态图的方法相比,本文模型计算效率仅低于STPGNN,原因在于STDGNet解码器采用了图卷积循环网络,计算效率较低,而STPGNN仅执行图卷积操作,从而减少计算时间。与基于动态图的方法DGCRN、STWave和D2STGNN相比,本文模型在保持优秀预测性能的同时,有效提高了计算效率。与性能最优的基线D2STGNN相比,本文模型的训练速度提升约2.5倍,推理时间提升约2.3倍。
3.9 预测结果可视化分析
本文对3个数据集上的交通流量预测效果进行了可视化展示。图3给出了3个数据集中节点样本在一天内的交通流量数据。从图3中可以看出,STDGNet在实际应用中能够准确预测未来交通发展趋势,更快更准确地响应动态变化,并适应更复杂的交通状况。例如,在PEMS07数据集中,高峰时段出现交通拥堵,导致交通流量骤降,证明了本文模型不仅能够捕捉交通的正常波动,还能适应更复杂的交通状况。3个数据集所选择节点的交通模式各不相同,本文模型能够捕捉不同节点的独特模式,证明了其在复杂条件下的城市交通流量预测能力。总体而言,该模型在整体预测精度上表现出色,充分验证了其时空建模能力。然而,受随机噪声的影响,模型在某些局部细节上的预测结果仍存在一定偏差。
4. 结束语
本文提出了一种基于时空动态图的交通流量预测模型STDGNet,结合了时空记忆注意力机制和图卷积循环网络,旨在解决现有交通流量预测方法在处理动态性、时空性和非线性交通数据上的不足,并实现精准的交通流量预测。通过引入动态图生成模块,该模型在交通网络底层拓扑关系未知的情况下,动态构建节点之间的空间关系。同时,模型还利用时空自适应嵌入方法和时空记忆注意力机制,充分挖掘交通流的时空特性。实验结果表明,所提模型在3个真实交通数据集上的表现优于所对比的基准模型,显著提升了交通流量预测的准确性和效率。通过对预测结果的进一步分析,证明了本文所提模型能够有效捕获内在时空依赖关系,并能拟合交通流的各种变化趋势,从而为城市交通系统的优化和决策提供有力支持。未来的研究工作将致力于进一步优化模型结构,扩展其在更大规模和更多样化交通数据上的应用,继续提升预测精度和实用性。
-
表 1 数据集说明
Table 1 Dataset description
数据集 传感器数量/个 时间步长/min 时间跨度 PEMS04 307 16992 01/2018~02/2018 PEMS07 883 28224 05/2017~08/2017 PEMS08 170 17856 07/2016~08/2016 表 2 不同模型在3个数据集上的性能比较
Table 2 Performance comparison of different models on three datasets
方法 指标 PEMS04 PEMS07 PEMS08 @3 @6 @12 均值 @3 @6 @12 均值 @3 @6 @12 均值 HI MAE 42.33 42.35 42.37 42.36 49.02 49.03 49.06 49.04 34.55 34.57 34.59 34.57 RMSE 61.64 61.66 61.67 61.66 71.16 71.18 71.20 71.18 50.41 50.43 50.44 50.43 MAPE/% 29.90 29.92 29.96 29.92 22.73 22.75 22.79 22.75 21.60 21.63 21.68 21.63 LSTM MAE 21.37 23.72 26.76 23.81 20.42 35.18 38.37 37.06 19.52 22.25 26.17 22.07 RMSE 33.31 36.58 40.28 36.62 33.21 52.91 56.82 55.73 29.73 33.30 38.97 31.02 MAPE/% 15.21 18.02 20.94 18.12 8.79 9.80 12.23 9.96 12.54 14.23 17.32 14.04 GWNet MAE 17.89 18.87 20.46 18.87 18.81 20.29 22.59 20.26 13.70 14.82 16.30 14.75 RMSE 28.89 30.27 32.46 30.25 30.70 33.27 37.03 33.38 21.74 23.68 26.18 23.64 MAPE/% 12.89 13.61 15.60 13.82 7.92 8.61 9.72 8.60 8.89 9.37 10.50 9.49 AGCRN MAE 18.47 19.32 20.59 19.29 19.28 20.75 22.76 20.69 14.47 15.68 17.65 15.69 RMSE 29.58 31.08 33.06 31.02 31.67 34.67 38.26 34.59 22.64 24.62 27.56 24.65 MAPE/% 12.49 13.25 13.93 13.20 8.13 8.83 9.69 8.75 9.33 10.22 11.42 10.19 MTGNN MAE 18.22 19.06 20.43 19.07 19.39 21.02 23.64 21.01 14.25 15.34 16.79 15.28 RMSE 29.52 31.14 33.30 31.07 31.30 34.21 38.45 34.25 22.38 24.35 26.61 24.20 MAPE/% 12.65 13.21 13.93 13.11 8.46 9.11 10.12 9.05 9.17 10.56 11.34 10.41 DCRNN MAE 18.49 19.71 21.76 19.73 19.49 21.21 24.20 21.23 14.15 15.22 16.93 15.22 RMSE 29.40 31.19 34.02 31.25 31.26 34.21 38.63 34.23 22.19 24.19 26.92 24.18 MAPE/% 12.73 13.57 15.16 13.61 8.26 8.94 10.36 9.01 9.48 10.17 11.32 10.18 STGCN MAE 18.93 19.87 21.51 19.90 20.54 22.13 24.76 22.13 15.03 16.02 17.96 16.13 RMSE 30.07 31.68 34.15 31.72 32.72 35.57 39.90 35.65 23.38 25.24 28.07 25.32 MAPE/% 13.13 13.69 14.91 13.78 8.91 9.33 10.57 9.50 9.92 10.58 11.66 10.66 ASTGNN MAE 18.03 19.14 21.17 19.18 19.00 20.96 24.18 20.92 13.45 14.56 16.40 14.57 RMSE 29.25 31.02 33.84 31.06 30.87 33.97 38.48 33.95 21.96 24.11 27.12 24.13 MAPE/% 12.33 13.01 14.34 13.04 8.19 9.18 10.89 9.17 8.75 9.35 10.49 9.43 DGCRN MAE 17.87 18.86 20.34 18.82 19.24 20.98 26.42 21.45 13.73 14.93 16.88 14.95 RMSE 28.95 30.63 32.90 30.57 31.09 34.55 40.29 34.53 21.73 23.78 26.62 23.77 MAPE/% 12.39 13.08 14.14 13.03 8.12 8.88 11.72 9.21 8.87 9.66 10.97 9.69 STWave MAE 17.64 18.68 20.03 18.64 18.53 19.77 21.45 19.78 13.01 13.79 14.96 13.85 RMSE 28.98 30.62 32.64 30.55 31.46 34.03 37.01 34.02 22.19 24.11 26.13 24.06 MAPE/% 11.89 12.62 13.68 12.62 7.69 8.18 8.98 8.21 9.05 9.61 10.60 9.45 D2STGNN MAE 17.58 18.42 19.83 18.41 18.25 19.72 21.90 19.67 13.20 14.10 15.42 14.15 RMSE 28.77 30.13 32.01 30.06 30.13 32.78 36.31 32.70 21.53 23.45 25.86 23.43 MAPE/% 12.25 12.76 13.68 12.75 7.73 8.31 9.24 8.29 8.91 9.39 10.31 9.36 STPGNN MAE 17.65 18.53 20.17 18.56 18.56 19.98 22.31 19.97 13.03 13.83 15.34 13.89 RMSE 28.82 30.10 32.51 30.08 30.53 33.01 36.55 32.85 21.75 23.59 26.13 23.51 MAPE/% 12.17 12.91 14.47 13.02 7.73 8.36 9.42 8.37 9.01 9.30 10.37 9.34 STDGNet MAE 17.53 18.21 19.31 18.22 18.22 19.49 21.37 19.50 12.84 13.68 14.99 13.72 RMSE 28.74 30.07 31.83 30.01 30.47 33.15 36.98 33.22 21.48 23.20 25.58 23.20 MAPE/% 11.66 12.01 12.74 12.05 7.60 8.09 8.92 8.18 8.70 9.23 10.20 9.30 注:加黑代表最佳结果,下划线代表次优结果。 表 3 基于PEMS08的消融实验
Table 3 Ablation study on PEMS08
模型 @3 @6 @12 MAE RMSE MAPE/% MAE RMSE MAPE/% MAE RMSE MAPE/% w/o Emb 13.59 22.64 8.99 14.79 24.78 9.91 16.88 28.09 10.93 w/o DGraph 13.44 22.36 8.83 14.53 24.54 9.52 15.89 27.19 10.42 w/o TrAtt 13.01 21.68 8.71 13.91 23.59 9.29 15.30 26.18 10.29 w/o SpAtt 13.03 21.74 8.85 13.99 23.67 9.38 15.36 26.38 10.38 w/o SelfAtt 13.12 21.58 9.01 13.89 23.29 9.33 15.06 25.59 10.23 STDGNet 12.84 21.48 8.70 13.68 23.20 9.23 14.99 25.58 10.20 表 4 嵌入维度分析结果
Table 4 Analysis results of embedding dimension
嵌入维度 PEMS04 PEMS08 MAE RMSE MAPE/% MAE RMSE MAPE/% 8 19.21 30.89 12.80 14.79 23.99 9.74 16 18.69 30.39 12.31 14.11 23.49 9.35 32 18.22 30.01 12.05 13.72 23.20 9.30 64 18.76 31.35 12.23 14.06 24.03 9.49 表 5 记忆单元存储容量分析结果
Table 5 Analysis results of memory unit storage capacity
存储容量/个 PEMS04 PEMS08 MAE RMSE MAPE/% MAE RMSE MAPE/% 10 18.39 30.52 12.22 14.79 23.78 9.55 20 18.31 30.21 12.14 14.18 23.49 9.37 30 18.22 30.01 12.05 13.72 23.20 9.30 40 18.38 30.52 12.29 13.91 23.77 9.35 50 18.47 30.78 12.35 13.97 23.48 9.40 表 6 效率实验
Table 6 Efficiency study
s 方法 PEMS04 PEMS07 PEMS08 训练时间 推理时间 训练时间 推理时间 训练时间 推理时间 AGCRN 79.57 12.52 321.72 43.56 77.65 10.39 GWNet 44.38 6.23 173.56 24.85 43.62 5.50 MTGNN 37.86 4.50 103.10 12.20 36.93 4.17 DGCRN 262.80 73.13 793.22 239.03 247.49 65.98 STWave 92.57 13.23 388.20 58.54 87.03 9.07 D2STGNN 162.86 17.88 1019.65 119.95 138.78 13.45 STPGNN 48.39 4.53 199.01 14.58 43.93 4.26 STDGNet 75.35 8.48 296.56 37.54 71.55 7.50 -
[1] YIN Chuantao, XIONG Zhang, CHEN Hui, et al. A literature survey on smart cities[J]. Science China information sciences, 2015, 58(10): 1−18. [2] BARNES R, BUTHPITIYA S, COOK J, et al. BusTr: predicting bus travel times from real-time traffic[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. Virtual Event: ACM, 2020: 3243−3251. [3] JIANG Renhe, YIN Du, WANG Zhaonan, et al. DL-traff: survey and benchmark of deep learning models for urban traffic prediction[C]//Proceedings of the 30th ACM International Conference on Information & Knowledge Management. New York: ACM, 2021: 4515–4525. [4] WANG Jingyuan, JIANG Jiawei, JIANG Wenjun, et al. LibCity: an open library for traffic prediction[C]//Proceedings of the 29th International Conference on Advances in Geographic Information Systems. New York: ACM, 2021: 145–148. [5] FU Quanlu, WU Jiyan, WU Xuemian, et al. Managing network congestion with link-based incentives: a surrogate-based optimization approach[J]. Transportation research part A: policy and practice, 2024, 182: 104033. doi: 10.1016/j.tra.2024.104033 [6] SATTARZADEH A R, KUTADINATA R J, PATHIRANA P N, et al. A novel hybrid deep learning model with ARIMA Conv-LSTM networks and shuffle attention layer for short-term traffic flow prediction[J]. Transportmetrica A: transport science, 2025, 21(1): 2236724. doi: 10.1080/23249935.2023.2236724 [7] XU Xuecai, JIN Xiaofei, XIAO Daiquan, et al. A hybrid autoregressive fractionally integrated moving average and nonlinear autoregressive neural network model for short-term traffic flow prediction[J]. Journal of intelligent transportation systems, 2023, 27(1): 1−18. doi: 10.1080/15472450.2021.1977639 [8] KHAN A, FOUDA M M, DO D T, et al. Short-term traffic prediction using deep learning long short-term memory: taxonomy, applications, challenges, and future trends[J]. IEEE access, 2023, 11: 94371−94391. doi: 10.1109/ACCESS.2023.3309601 [9] DAI Genan, KONG Weiyang, LIU Yubao, et al. Multi-perspective convolutional neural networks for citywide crowd flow prediction[J]. Applied intelligence, 2023, 53(8): 8994−9008. doi: 10.1007/s10489-022-03980-9 [10] ZHANG Si, TONG Hanghang, XU Jiejun, et al. Graph convolutional networks: a comprehensive review[J]. Computational social networks, 2019, 6(1): 11. doi: 10.1186/s40649-019-0069-y [11] WU Zonghan, PAN Shirui, CHEN Fengwen, et al. A comprehensive survey on graph neural networks[J]. IEEE transactions on neural networks and learning systems, 2021, 32(1): 4−24. doi: 10.1109/TNNLS.2020.2978386 [12] GUO Shengnan, LIN Youfang, FENG Ning, et al. Attention based spatial-temporal graph convolutional networks for traffic flow forecasting[C]//Proceedings of the AAAI Conference on Artificial Intelligence. Palo Alto: AAAI, 2019, 33(1): 922−929. [13] JIANG Renhe, WANG Zhaonan, YONG Jiawei, et al. Spatio-temporal meta-graph learning for traffic forecasting[C]//Proceedings of the AAAI Conference on Artificial Intelligence. Palo Alto: AAAI, 2023: 8078−8086. [14] SHIN Y, YOON Y. PGCN: progressive graph convolutional networks for spatial-temporal traffic forecasting[J]. IEEE transactions on intelligent transportation systems, 2024, 25(7): 7633−7644. doi: 10.1109/TITS.2024.3349565 [15] ZHENG Chuanpan, FAN Xiaoliang, WANG Cheng, et al. Gman: a graph multi-attention network for traffic prediction[C]//Proceedings of the AAAI Conference on Artificial Intelligence. Palo Alto: AAAI, 2020: 1234−1241. [16] LIPPI M, BERTINI M, FRASCONI P. Short-term traffic flow forecasting: an experimental comparison of time-series analysis and supervised learning[J]. IEEE transactions on intelligent transportation systems, 2013, 14(2): 871−882. doi: 10.1109/TITS.2013.2247040 [17] WANG Jian, DENG Wei, GUO Yuntao. New Bayesian combination method for short-term traffic flow forecasting[J]. Transportation research part C: emerging technologies, 2014, 43: 79−94. doi: 10.1016/j.trc.2014.02.005 [18] SHAHRIARI S, GHASRI M, SISSON S A, et al. Ensemble of ARIMA: combining parametric and bootstrapping technique for traffic flow prediction[J]. Transportmetrica A: transport science, 2020, 16(3): 1552−1573. doi: 10.1080/23249935.2020.1764662 [19] WILLIAMS B M, HOEL L A. Modeling and forecasting vehicular traffic flow as a seasonal ARIMA process: theoretical basis and empirical results[J]. Journal of transportation engineering, 2003, 129(6): 664−672. doi: 10.1061/(ASCE)0733-947X(2003)129:6(664) [20] RAZA A, LIU Guangjie, ADEKE J M, et al. Passenger flow prediction method based on hybrid algorithm: intelligent transportation system[J]. European journal of applied science, engineering and technology, 2024, 2(1): 12−20. doi: 10.59324/ejaset.2024.2(1).02 [21] LUO Xianglong, LI Danyang, ZHANG Shengrui. Traffic flow prediction during the holidays based on DFT and SVR[J]. Journal of sensors, 2019, 2019: 6461450. [22] YANG Xiaoxue, ZOU Yajie, TANG Jinjun, et al. Evaluation of short-term freeway speed prediction based on periodic analysis using statistical models and machine learning models[J]. Journal of advanced transportation, 2020, 2020: 9628957. [23] XIA Dawen, WANG Binfeng, LI Huaqing, et al. A distributed spatial-temporal weighted model on MapReduce for short-term traffic flow forecasting[J]. Neurocomputing, 2016, 179: 246−263. doi: 10.1016/j.neucom.2015.12.013 [24] SUN Zhaoyun, HU Yuanjiao, LI Wei, et al. Prediction model for short-term traffic flow based on a K-means-gated recurrent unit combination[J]. IET intelligent transport systems, 2022, 16(5): 675−690. doi: 10.1049/itr2.12165 [25] JIN Guangyin, LIANG Yuxuan, FANG Yuchen, et al. Spatio-temporal graph neural networks for predictive learning in urban computing: a survey[J]. IEEE transactions on knowledge and data engineering, 2024, 36(10): 5388−5408. doi: 10.1109/TKDE.2023.3333824 [26] YU Bing, YIN Haoteng, ZHU Zhanxing. Spatio-temporal graph convolutional networks: a deep learning framework for traffic forecasting[C]//Proceedings of the 27th International Joint Conference on Artificial Intelligence. Freiburg: IJCAI, 2018: 3634−3640. [27] GUO Shengnan, LIN Youfang, WAN Huaiyu, et al. Learning dynamics and heterogeneity of spatial-temporal graph data for traffic forecasting[J]. IEEE transactions on knowledge and data engineering, 2022, 34(11): 5415−5428. doi: 10.1109/TKDE.2021.3056502 [28] LI Yaguang, YU R, SHAHABI C, et al. Diffusion convolutional recurrent neural network: Data-driven traffic forecasting[EB/OL]. (2017−04−06)[2024−02−01]. https://arxiv.org/abs/1707.01926. [29] BAI Lei, YAO Lina, LI Can, et al. Adaptive graph convolutional recurrent network for traffic forecasting[J]. IEEE internet of things journal, 2023, 10(13): 11465−11475. doi: 10.1109/JIOT.2023.3244182 [30] WU Zonghan, PAN Shirui, LONG Guodong, et al. Connecting the dots: multivariate time series forecasting with graph neural networks[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York: ACM, 2020: 753−763. [31] LI Fuxian, FENG Jie, YAN Huan, et al. Dynamic graph convolutional recurrent network for traffic prediction: benchmark and solution[J]. ACM transactions on knowledge discovery from data, 2023, 17(1): 1−21. [32] KONG Weiyang, GUO Ziyu, LIU Yubao. Spatio-temporal pivotal graph neural networks for traffic flow forecasting[C]//Proceedings of the AAAI Conference on Artificial Intelligence, Palo Alto: AAAI, 2024: 8627−8635. [33] CUI Yue, XIE Jiandong, ZHENG Kai. Historical inertia: a neglected but powerful baseline for long sequence time-series forecasting[C]//Proceedings of the 30th ACM International Conference on Information & Knowledge Management. New York: ACM, 2021: 2965−2969. [34] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural computation, 1997, 9(8): 1735−1780. doi: 10.1162/neco.1997.9.8.1735 [35] FANG Yuchen, QIN Yanjun, LUO Haiyong, et al. When spatio-temporal meet wavelets: disentangled traffic forecasting via efficient spectral graph attention networks[C]//2023 IEEE 39th International Conference on Data Engineering. Anaheim: IEEE, 2023: 517−529. [36] SHAO Zezhi, ZHANG Zhao, WEI Wei, et al. Decoupled dynamic spatial-temporal graph neural network for traffic forecasting[J]. Proceedings of the VLDB Endowment, 2022, 15(11): 2733−2746. doi: 10.14778/3551793.3551827