交通流量预测HSTGCNT:Hierarchical Spatio–Temporal Graph Convolutional

本文主要是介绍交通流量预测HSTGCNT:Hierarchical Spatio–Temporal Graph Convolutional,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Hierarchical Spatio–Temporal Graph Convolutional Networks and Transformer Network for Traffic Flow Forecasting

交通流预测的层次时空图卷积网络和Transformer网络

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

Abstract

图卷积网络(GCN)具有图形化描述道路网络不规则拓扑结构的能力,已被应用于交通流预测任务中。然而,基于GCN的交通流预测方法往往无法同时捕捉到交通流数据所承载的短期和长期时间关系,并且还存在过平滑问题。为了克服这些问题,我们提出了一个分层的交通流预测网络合并新设计的长期时间Transformer网络(LTT)和时空图卷积网络(STGC)。

具体而言,LTT旨在学习交通流数据之间的长期时间关系,而STGC模块旨在通过一维卷积和图卷积之间的级联分别捕获交通流数据之间的短期时间关系和空间关系。此外,提出了一种联合收割机的注意力融合机制,将长期和短期时间关系作为STGC中图卷积层的输入,以缓解GCN的过度平滑问题。

在三个公共交通流数据集上的实验结果证明了该方法的有效性和鲁棒性。

索引术语:图形卷积网络GCN,交通数据预测traffic data forecasting,Transformer。

主要贡献

提出了一种由时空图卷积网络(STGC)和长期时间变换网络(LTT)两个并行网络构建的分层交通流预测模型

  • 长期时间变换网络通过变换对时间位置信息进行编码,提取交通流数据之间的长期时间关系;
  • 时空图卷积网络捕捉交通流数据在不同时间粒度层次上的空间依赖关系,利用多个一维卷积核挖掘数据之间的短期时间关系;
  • 长短时态信息融合模块设计了一种基于注意力的融合模块,根据上述长期和短期时态关系的重要性自适应地整合它们,并将融合后的表示传递给STGC,具有缓解GCN的过平滑问题的能力。

相关工作

​ 在这一部分中,我们回顾了与传统交通流预测、基于图卷积网络的交通流预测和变压器网络相关的必要知识。

B.

时空GCN(STGCN)是第一个将GCN应用于交通数据预测任务的工作,它将时间CNN和空间GCN模块级联在一起来捕捉交通数据之间的时空关系。

GCN的交通流预测,扩散卷积递归神经网络(DCRNN)[12]在道路网络图上执行双向随机游动来捕捉空间关系,并使用门控递归单元来获得时间关系

C.

Transformer的交通量预测

Motivation

交通流数据具有复杂的时空关系。如何有效地捕捉和融合这两种关系是交通流预测任务的关键问题。因此,提出了一种用于交通流预测任务的新型分层深度神经网络模型,其动机如下。

  • 为了学习隐藏的长期时间关系,我们使用Transformer网络[27]来构建长期时间Transformer网络(LTT)。

  • 为了充分利用短期时间关系和空间关系,我们构建了时空图卷积网络(STGC),它也从交通流数据中学习短期关系,由一维时间卷积和GCN组成。

  • 为了综合上述的长时、短时和空间关系,我们设计了基于注意力的融合模块,将LTT和STGC逐层连接起来,从而缓解了STGC的过度平滑问题。

整体网络架构

  • 长期时间Transformer网络(LTT)从原始业务流数据捕获长期时间依赖性,即image-20240113161005904
  • 每个时空图卷积模块(STGC)级联一维卷积神经网络image-20240113161441840、图卷积网络image-20240113161407440,随后是另一个一维卷积神经网络image-20240113161512419image-20240113161611855,其同时捕获短期时间依赖性和空间依赖性;
  • 长短时间信息融合模块融合上述长期和短期时间依赖性,即image-20240113161750564,然后我们将其逐层发送到STGC中的图卷积网络。
层次化交通流预测模型的概念框架

图2所示。提出了层次化交通流预测模型的概念框架,该模型包括三个模块:

  • 长时transformer网络(LTT)
  • 时空图卷积网络(STGC)
  • 长短时信息融合模块(LSTIF)Fusion Module

X 为原始交通流数据, X ^ \hat{X} X^为LTT重构后的交通流数据乘积。Z(L) 为STGC模块预测的交通流量, H(L) 为LTT编码器最后一层的输出。Ltrans-res为LTT交通流重构损失,Ltrans-fore为预测损失。Lstgc-mae和Lstgc-mse分别为STGC的预测损失。

image-20240113152820689

长期时间Transformer的概念框架
image-20240113164820665

该网络对时间位置信息进行编码,从原始交通流数据中提取长期时间关系。

如图3所示,所设计的长期时间Transformer网络具有两个主要组件:时间位置嵌入和长期时间信息提取。

1)时间位置嵌入:由于交通流数据是典型的时间序列数据,分析数据之间的时间位置关系可以提高交通流预测的性能。例如,当我们预测某段道路7:30的交通流量时,7:00的交通流量数据比5:00的交通流量数据更重要。传统的注意力机制被用来捕捉数据之间的关系[37],而忽略了这种时间序列数据中的顺序信息。

​ Transformer引入了sin、cos来完成周期性的操作

image-20240114163730953

但是周期太大,需要设置一个合理的周期

image-20240114163823425

2)长时间信息提取:30分钟以上的长时间交通预测仍然是当前智能交通领域的一个基础和难点问题。这种长期的时间依赖性给传统的基于CNN或RNN的时间处理模块带来了很大的困难。为了解决这个问题,我们提出了一个LTT网络,从整个交通流序列中提取长期的时间关系。

Each encoder is constructed by four main components:

​ multi-head attention, fully-connected feed-forward network, dropout [38] and layer normalisation [39].

只使用前几个时间步长的交通流量预测

编码器和解码器都是三个,结构类似

时空卷积网络(STGC)

时空卷积网络(STGC)由三个相同的块组成(如图2所示),每个块由短期时间卷积空间图卷积构成。顾名思义,短时时间卷积旨在捕捉交通流数据的短时时间相关性,而空间图卷积则是捕捉相应的空间相关性

1)短期时间卷积:与递归神经网络相比,卷积神经网络可以并行训练,因此耗时更少。此外,CNN只关注感受野内的数据,捕捉数据的短期剧烈变化。因此,**我们沿着交通流数据的时间轴T1执行一维卷积以提取短期时间关系。**为了进一步防止消失梯度问题并确保充分的信息传输,我们使用门控线性单元来激活通过一维卷积提取的特征,

2)空间图卷积:交通流数据变化复杂,道路网络具有非欧结构,路段之间存在许多隐含的复杂关系。例如,两个路段在**道路网络中可能不直接连接,而它们具有许多相同的邻居。**这是一个自然的信念,这两个路段具有高阶结构关系。作为一种重要的深度学习方法,GCN可以挖掘道路网络中这种潜在的高阶关系。

长短时信息融合模块(LSTIF)

在不同的时期,长短时信息的重要性是不同的。比如早晚高峰时段,车流量大,当前交通拥堵对15分钟后的车流量影响明显。在这种情况下,短时交通流信息在交通流预测任务中起着至关重要的作用。在交通平坦期,交通量小,交通拥堵消散快,因此30分钟至1小时的长时间时间信息更有指导意义。LTT网络捕获交通流数据之间的长期时间关系,STGC网络学习短期时间关系和空间关系,但如何正确集成这些异构数据是一个关键问题。我们提出的长短时信息融合模块(LSTIF)学习一个更好的交通流表示逐层通过注意力融合机制。然后,融合表示发送到每个STGC层,以解决GCN的过平滑问题。LSTIF模块具有强大的全局学习能力和良好的并行性,进一步突出了融合表示中根据目标交通流周期的关键信息,抑制了无用噪声。

这篇关于交通流量预测HSTGCNT:Hierarchical Spatio–Temporal Graph Convolutional的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/617058

相关文章

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

SIGMOD-24概览Part7: Industry Session (Graph Data Management)

👇BG3: A Cost Effective and I/O Efficient Graph Database in ByteDance 🏛机构:字节 ➡️领域: Information systems → Data management systemsStorage management 📚摘要:介绍了字节新提出的ByteGraph 3.0(BG3)模型,用来处理大规模图结构数据 背景

Tensorflow lstm实现的小说撰写预测

最近,在研究深度学习方面的知识,结合Tensorflow,完成了基于lstm的小说预测程序demo。 lstm是改进的RNN,具有长期记忆功能,相对于RNN,增加了多个门来控制输入与输出。原理方面的知识网上很多,在此,我只是将我短暂学习的tensorflow写一个预测小说的demo,如果有错误,还望大家指出。 1、将小说进行分词,去除空格,建立词汇表与id的字典,生成初始输入模型的x与y d

临床基础两手抓!这个12+神经网络模型太贪了,免疫治疗预测、通路重要性、基因重要性、通路交互作用性全部拿下!

生信碱移 IRnet介绍 用于预测病人免疫治疗反应类型的生物过程嵌入神经网络,提供通路、通路交互、基因重要性的多重可解释性评估。 临床实践中常常遇到许多复杂的问题,常见的两种是: 二分类或多分类:预测患者对治疗有无耐受(二分类)、判断患者的疾病分级(多分类); 连续数值的预测:预测癌症病人的风险、预测患者的白细胞数值水平; 尽管传统的机器学习提供了高效的建模预测与初步的特征重

结合Python与GUI实现比赛预测与游戏数据分析

在现代软件开发中,用户界面设计和数据处理紧密结合,以提升用户体验和功能性。本篇博客将基于Python代码和相关数据分析进行讨论,尤其是如何通过PyQt5等图形界面库实现交互式功能。同时,我们将探讨如何通过嵌入式预测模型为用户提供赛果预测服务。 本文的主要内容包括: 基于PyQt5的图形用户界面设计。结合数据进行比赛预测。文件处理和数据分析流程。 1. PyQt5 图形用户界面设计

A Comprehensive Survey on Graph Neural Networks笔记

一、摘要-Abstract 1、传统的深度学习模型主要处理欧几里得数据(如图像、文本),而图神经网络的出现和发展是为了有效处理和学习非欧几里得域(即图结构数据)的信息。 2、将GNN划分为四类:recurrent GNNs(RecGNN), convolutional GNNs,(GCN), graph autoencoders(GAE), and spatial–temporal GNNs(S

CNN-LSTM模型中应用贝叶斯推断进行时间序列预测

这篇论文的标题是《在混合CNN-LSTM模型中应用贝叶斯推断进行时间序列预测》,作者是Thi-Lich Nghiem, Viet-Duc Le, Thi-Lan Le, Pierre Maréchal, Daniel Delahaye, Andrija Vidosavljevic。论文发表在2022年10月于越南富国岛举行的国际多媒体分析与模式识别会议(MAPR)上。 摘要部分提到,卷积

KDD 2024 时空数据(Spatio-temporal) ADS论文总结

2024 KDD( ACM SIGKDD Conference on Knowledge Discovery and Data Mining, 知识发现和数据挖掘会议)在2024年8月25日-29日在西班牙巴塞罗那举行。 本文总结了KDD2024有关时空数据(Spatial-temporal) 的相关论文,如有疏漏,欢迎大家补充。 时空数据Topic:时空(交通)预测, 生成,拥堵预测,定价预

Neighborhood Homophily-based Graph Convolutional Network

#paper/ccfB 推荐指数: #paper/⭐ #pp/图结构学习 流程 重定义同配性指标: N H i k = ∣ N ( i , k , c m a x ) ∣ ∣ N ( i , k ) ∣ with c m a x = arg ⁡ max ⁡ c ∈ [ 1 , C ] ∣ N ( i , k , c ) ∣ NH_i^k=\frac{|\mathcal{N}(i,k,c_{

多维时序 | Matlab基于SSA-SVR麻雀算法优化支持向量机的数据多变量时间序列预测

多维时序 | Matlab基于SSA-SVR麻雀算法优化支持向量机的数据多变量时间序列预测 目录 多维时序 | Matlab基于SSA-SVR麻雀算法优化支持向量机的数据多变量时间序列预测效果一览基本介绍程序设计参考资料 效果一览 基本介绍 1.Matlab基于SSA-SVR麻雀算法优化支持向量机的数据多变量时间序列预测(完整源码和数据) 2.SS