ST-GRAT: A Novel Spatio-temporal Graph Attention Networks for Accurately Forecasting Dynamically Cha

本文主要是介绍ST-GRAT: A Novel Spatio-temporal Graph Attention Networks for Accurately Forecasting Dynamically Cha,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

研究问题

基于动态空间依赖的交通流预测问题

背景动机

  • 传统方法不论是外部输入图结构还是自己学出图结构都假定道路之间的空间依赖关系是固定的,因此它们只计算一次空间依赖关系,并一直使用计算出的依赖关系,而不考虑动态变化的交通条件。
  • 通过注意力机制来建模动态空间依赖的模型往往忽略了图上固有的结构信息
  • RNN有不能直接访问长输入序列中的过去的特征的限制,不如attention好

模型思想

  • 空间注意力模块:使用了作者提出的扩散先验、有向头和基于距离的嵌入,以通过捕捉道路速度变化和图形结构信息来建模空间依赖性
  • 时间注意力模块:使用注意力直接访问输入序列遥远的相关特征,有效地捕捉突然波动的时间动态
  • 空间哨兵模块:在哨兵向量的指导下,动态决定使用其他道路的新信息或关注现有的编码特征,避免使用对预测没有帮助的不相关道路

符号定义

  • 输入图的表示: G = ( V , E , A ) \mathcal{G}=(\mathcal{V}, \mathcal{E}, \mathcal{A}) G=(V,E,A)
  • 输入特征的表示: X ( t ) ∈ R N × 2 X^{(t)} \in \mathbb{R}^{N \times 2} X(t)RN×2,2个特征分别是车速和时间戳
  • 目标:以图 G \mathcal{G} G X = [ X ( t − T + 1 ) , ⋯ , X ( t ) ] X=\left[X^{(t-T+1)}, \cdots, X^{(t)}\right] X=[X(tT+1),,X(t)]为输入,预测 Y = [ X : , 0 ( t + 1 ) , ⋯ , X : , 0 ( t + T ) ] Y = \left[X_{:, 0}^{(t+1)}, \cdots, X_{:, 0}^{(t+T)}\right] Y=[X:,0(t+1),,X:,0(t+T)]

模型结构

  • 整体框架为下图所示的encoder-decoder架构,其中左半深色部分为编码器,右半深色部分为解码器

在这里插入图片描述

  • 编码器结构
    • 单个编码器层由三个子层顺序构成:空间注意层、时间注意层和前馈神经网络。空间注意层在每个时间步长关注与中心节点在空间上相关的邻居节点;时间注意层关注单个节点及给定输入序列的不同时间步长;前馈神经网络融合两层的信息获取高阶特征
    • 编码器采取了skip connection、layer normalization、dropout来增强泛化性能
  • 嵌入层
    • 为了考虑节点距离信息,使用预训练好的Line模型计算节点嵌入特征
    • 使用Transformer的方法计算节点的位置编码向量
    • 将这两部分结果与节点的原始特征拼接起来
  • 空间注意力模块

在这里插入图片描述

  • 分别对流入和流出节点应用注意力机制,从而对方向进行建模
  • 结构上采取了类似transformer的多头注意力机制
  • 使用哨兵向量来过滤无关节点
  • 时间注意力模块

没有详细解释,也是采用了和空间注意力模块一样的多头注意力机制,去除了哨兵向量

  • 解码器结构

和编码器结构相似,不同是利用masked attention layer限制注意现在和过去的信息;encoder-decoder attention layer同时从编码器输出和masked attention laye的输出中提取信息

实验部分

  • 对比实验

在这里插入图片描述

在这里插入图片描述

在总体的对比实验之后,还在不同时间段以及速度快速变化的时间段比较了模型的预测效果

在这里插入图片描述

在这里插入图片描述

  • 消融实验

结果表明网络层数越多、隐藏向量维数越高、注意力头数越多、邻居节点的范围越大、使用哨兵向量都有助于提高模型性能。同时,通过比较不同的嵌入设置,可以观察到邻近信息几乎不影响模型的性能

在这里插入图片描述

  • 可解释性

主要是对着注意力热图一阵分析

在这里插入图片描述

评价

感觉这篇论文最主要的出发点就是把transformer应用到交通流预测上去,动态空间依赖的建模方式依然是使用attention,只不过输入里面加入了包含空间结构信息的嵌入。

这篇关于ST-GRAT: A Novel Spatio-temporal Graph Attention Networks for Accurately Forecasting Dynamically Cha的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/358413

相关文章

什么是 Flash Attention

Flash Attention 是 由 Tri Dao 和 Dan Fu 等人在2022年的论文 FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness 中 提出的, 论文可以从 https://arxiv.org/abs/2205.14135 页面下载,点击 View PDF 就可以下载。 下面我

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

SIGMOD-24概览Part7: Industry Session (Graph Data Management)

👇BG3: A Cost Effective and I/O Efficient Graph Database in ByteDance 🏛机构:字节 ➡️领域: Information systems → Data management systemsStorage management 📚摘要:介绍了字节新提出的ByteGraph 3.0(BG3)模型,用来处理大规模图结构数据 背景

A Comprehensive Survey on Graph Neural Networks笔记

一、摘要-Abstract 1、传统的深度学习模型主要处理欧几里得数据(如图像、文本),而图神经网络的出现和发展是为了有效处理和学习非欧几里得域(即图结构数据)的信息。 2、将GNN划分为四类:recurrent GNNs(RecGNN), convolutional GNNs,(GCN), graph autoencoders(GAE), and spatial–temporal GNNs(S

KDD 2024 时空数据(Spatio-temporal) ADS论文总结

2024 KDD( ACM SIGKDD Conference on Knowledge Discovery and Data Mining, 知识发现和数据挖掘会议)在2024年8月25日-29日在西班牙巴塞罗那举行。 本文总结了KDD2024有关时空数据(Spatial-temporal) 的相关论文,如有疏漏,欢迎大家补充。 时空数据Topic:时空(交通)预测, 生成,拥堵预测,定价预

Neighborhood Homophily-based Graph Convolutional Network

#paper/ccfB 推荐指数: #paper/⭐ #pp/图结构学习 流程 重定义同配性指标: N H i k = ∣ N ( i , k , c m a x ) ∣ ∣ N ( i , k ) ∣ with c m a x = arg ⁡ max ⁡ c ∈ [ 1 , C ] ∣ N ( i , k , c ) ∣ NH_i^k=\frac{|\mathcal{N}(i,k,c_{

时序预测|变分模态分解-双向时域卷积-双向门控单元-注意力机制多变量时间序列预测VMD-BiTCN-BiGRU-Attention

时序预测|变分模态分解-双向时域卷积-双向门控单元-注意力机制多变量时间序列预测VMD-BiTCN-BiGRU-Attention 文章目录 一、基本原理1. 变分模态分解(VMD)2. 双向时域卷积(BiTCN)3. 双向门控单元(BiGRU)4. 注意力机制(Attention)总结流程 二、实验结果三、核心代码四、代码获取五、总结 时序预测|变分模态分解-双向时域卷积

Apache-Flink深度解析-Temporal-Table-JOIN

在《JOIN LATERAL》中提到了Temporal Table JOIN,本篇就向大家详细介绍什么是Temporal Table JOIN。在ANSI-SQL 2011 中提出了Temporal 的概念,Oracle,SQLServer,DB2等大的数据库厂商也先后实现了这个标准。Temporal Table记录了历史上任何时间点所有的数据改动,Temporal Table的工作流程如下:

Complex Networks Package for MatLab

http://www.levmuchnik.net/Content/Networks/ComplexNetworksPackage.html 翻译: 复杂网络的MATLAB工具包提供了一个高效、可扩展的框架,用于在MATLAB上的网络研究。 可以帮助描述经验网络的成千上万的节点,生成人工网络,运行鲁棒性实验,测试网络在不同的攻击下的可靠性,模拟任意复杂的传染病的传

阅读笔记--Guiding Attention in End-to-End Driving Models

作者:Diego Porres1, Yi Xiao1, Gabriel Villalonga1, Alexandre Levy1, Antonio M. L ́ opez1,2 出版时间:arXiv:2405.00242v1 [cs.CV] 30 Apr 2024 这篇论文研究了如何引导基于视觉的端到端自动驾驶模型的注意力,以提高它们的驾驶质量和获得更直观的激活图。 摘 要   介绍