2020-ASRM: A Semantic and Attention Spatio-temporal Recurrent Model for Next Location Prediction

本文主要是介绍2020-ASRM: A Semantic and Attention Spatio-temporal Recurrent Model for Next Location Prediction,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

[1] Zhang X, Li B, Song C, et al. SASRM: A Semantic and Attention Spatio-temporal Recurrent Model for Next Location Prediction[C]//2020 International Joint Conference on Neural Networks (IJCNN). IEEE, 2020: 1-8.

文章目录

    • `Abstract`
    • `关键词`
    • `1 Introduction`
    • `2 Related Work`
    • `3 Preliminaries`
    • `4 Semantic and Attention Spatio-temporal Recurrent Model`
      • `A 特征嵌入和向量生成`
      • `B 递归单元`
      • `C 注意力`
      • `D 预测`
    • `5 Experiments`
    • `6 Conclusions`

Abstract

Predicting user’s next location is of great importance for a wide spectrum of location-based applications. However, most prediction methods do not take advantage of the rich semantic information contained in trajectory data. Meanwhile, the traditional LSTM-based model can not capture the spatio-temporal dependencies well. In this paper, we propose a Semantic and Attention Spatio-temporal Recurrent Model (SASRM) for next location prediction. Firstly, the SASRM put forward a method for encoding semantic vectors and concatenating vectors (location, time and semantic vectors) as input to the model. To capture the spatio-temporal dependencies, we design a variant recurrent unit based on LSTM. Further, an attention layer is used to weight hidden state to capture the influence of the historical locations on the next location prediction. We perform experiments on two real-life semantic trajectory datasets, and evaluation results demonstrate that our model outperforms several state-of-the-art models in accuracy.

  • 现有问题:1. 大多数预测方法并没有充分利用轨迹数据中丰富的语义信息。2. 传统的基于LSTM的模型不能很好地捕捉时空相关性
  • 本文提出了一种语义和注意力时空循环模型(Semantic and Attention Spatio-temporal Recurrent Model,SASRM)用于下一个位置预测
  • 方法(3个关键点):首先,对语义向量进行编码,并将向量(位置、时间和语义向量)连接起来作为模型的输入。为了捕捉时空相关性,我们设计了一个基于LSTM的变分递归单元。在此基础上,利用注意力层对隐藏状态进行加权,以获取历史位置对下一个位置预测的影响。
  • 结果:在两个真实生活中的语义轨迹数据集上进行了实验,结果表明SASRM模型在accuracy上优于一些最先进的模型。

关键词

  • Location Prediction
  • Semantic Trajectory
  • Attention
  • LSTM

1 Introduction

  1. 具有丰富的时空语境信息的人的移动轨迹称为语义轨迹
  2. 语义信息: 例如位置上下文信息(例如餐馆、书店),正在进行的活动上下文信息(打篮球、跳舞、唱歌)。
  3. 基于语义轨迹的位置预测的三个挑战及本文的解决方法:1)如何将语义信息编码到预测模型中——解决方法:语义向量。2)如何有效地捕捉轨迹的时空相关性——解决方法:在LSTM的基础上设计变分递归单元(包含time gate和distance gate)。3)如何将历史信息融入回归式模型训练中——解决方法:注意力机制

2 Related Work

  介绍了传统的预测模型基于神经网络的模型

  • 传统的预测模型(HMM、MF…)
  • 基于神经网络的模型(Liu等人提出了ST-RNN (Spatial Temporal RNN)模型,利用RNN单元的时间特异性转移矩阵和距离特异性转移矩阵来增强模型接收时空信息的能力。Zhu等人生成了Time-LSTM模型,用于学习时间间隔的依赖关系。Zhao等人在Time-LSTM的基础上提出了STGN模型。他们设计了一个基于LSTM单元的门回归网络,通过添加时间门和距离门,提高了LSTM模型捕捉时空相关性的能力。…)
  • 不足:很少考虑语义、没有捕获到时空依赖性

3 Preliminaries

  • 语义地点(Semantic Location)
    与通常的地点表示类似,加上了文本信息。 r k u i = ( u i , l k , t k , c k ) {r_k}^{u_i} = (u_i, l_k, t_k, c_k) rkui=(ui,lk,tk,ck), 其中 u i {u_i} ui表示User ID, l k {l_k} lk表示location, t k {t_k} tk表示time, c k {c_k} ck表示由LBS或用户提供的文本,包含了语义信息
  • 语义轨迹(Semantic Trajectory):由语义地点构成的序列
  • LSTM知识如下:
  •   LSTM是RNN的经典变体,用来解决RNN模型的梯度消失问题。与RNN相比,它能够捕捉序列信息的长期依赖性,具有良好的可扩展性。我们可以修改LSTM来提高模型在不同预测任务中的性能。

  原LSTM公式见(1)-(6)。


4 Semantic and Attention Spatio-temporal Recurrent Model

语义和注意力时空循环模型(Semantic and Attention Spatio-temporal Recurrent Model,SASRM)

SASRM模型包括四个主要部分

  1. 特征嵌入和向量生成(feature embedding and vector generator)
  2. 递归单元(recurrent unit)
  3. 注意力(historical attention)
  4. 预测(prediction)

A 特征嵌入和向量生成

  • 通过嵌入(embedding)技术生成向量
  • u i {u_i} ui表示User ID, l k {l_k} lk表示location, t k {t_k} tk表示time。 u i {u_i} ui l k {l_k} lk t k {t_k} tk可以直接编码为嵌入向量 b u i {b_{u_i}} bui b l k {b_{l_k}} blk b t k {b_{t_k}} btk。三个嵌入权重矩阵 B i {B_i} Bi B k {B_k} Bk B k {B_k} Bk被随机初始化。初始化公式如(7)-(9).
  • 采用一种语义信息向量嵌入方式sen2vec编码语义向量
  • 对于一个包含语义的文本信息 c k c_k ck,我们使用预先训练的词向量 v g k v_{g_k} vgk来表示每个词w。首先,所有词向量

这篇关于2020-ASRM: A Semantic and Attention Spatio-temporal Recurrent Model for Next Location Prediction的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/852016

相关文章

你的华为手机升级了吗? 鸿蒙NEXT多连推5.0.123版本变化颇多

《你的华为手机升级了吗?鸿蒙NEXT多连推5.0.123版本变化颇多》现在的手机系统更新可不仅仅是修修补补那么简单了,华为手机的鸿蒙系统最近可是动作频频,给用户们带来了不少惊喜... 为了让用户的使用体验变得很好,华为手机不仅发布了一系列给力的新机,还在操作系统方面进行了疯狂的发力。尤其是近期,不仅鸿蒙O

usaco 1.3 Mixing Milk (结构体排序 qsort) and hdu 2020(sort)

到了这题学会了结构体排序 于是回去修改了 1.2 milking cows 的算法~ 结构体排序核心: 1.结构体定义 struct Milk{int price;int milks;}milk[5000]; 2.自定义的比较函数,若返回值为正,qsort 函数判定a>b ;为负,a<b;为0,a==b; int milkcmp(const void *va,c

什么是 Flash Attention

Flash Attention 是 由 Tri Dao 和 Dan Fu 等人在2022年的论文 FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness 中 提出的, 论文可以从 https://arxiv.org/abs/2205.14135 页面下载,点击 View PDF 就可以下载。 下面我

GNSS CTS GNSS Start and Location Flow of Android15

目录 1. 本文概述2.CTS 测试3.Gnss Flow3.1 Gnss Start Flow3.2 Gnss Location Output Flow 1. 本文概述 本来是为了做Android 14 Gnss CTS 的相关环境的搭建和测试,然后在测试中遇到了一些问题,去寻找CTS源码(/cts/tests/tests/location/src/android/locat

web群集--nginx配置文件location匹配符的优先级顺序详解及验证

文章目录 前言优先级顺序优先级顺序(详解)1. 精确匹配(Exact Match)2. 正则表达式匹配(Regex Match)3. 前缀匹配(Prefix Match) 匹配规则的综合应用验证优先级 前言 location的作用 在 NGINX 中,location 指令用于定义如何处理特定的请求 URI。由于网站往往需要不同的处理方式来适应各种请求,NGINX 提供了多种匹

MVC(Model-View-Controller)和MVVM(Model-View-ViewModel)

1、MVC MVC(Model-View-Controller) 是一种常用的架构模式,用于分离应用程序的逻辑、数据和展示。它通过三个核心组件(模型、视图和控制器)将应用程序的业务逻辑与用户界面隔离,促进代码的可维护性、可扩展性和模块化。在 MVC 模式中,各组件可以与多种设计模式结合使用,以增强灵活性和可维护性。以下是 MVC 各组件与常见设计模式的关系和作用: 1. Model(模型)

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

【鸿蒙HarmonyOS NEXT】页面之间相互传递参数

【鸿蒙HarmonyOS NEXT】页面之间相互传递参数 一、环境说明二、页面之间相互传参 一、环境说明 DevEco Studio 版本: API版本:以12为主 二、页面之间相互传参 说明: 页面间的导航可以通过页面路由router模块来实现。页面路由模块根据页面url找到目标页面,从而实现跳转。通过页面路由模块,可以使用不同的url访问不同的页面,包括跳转到U

leetcode#496. Next Greater Element I

题目 You are given two arrays (without duplicates) nums1 and nums2 where nums1’s elements are subset of nums2. Find all the next greater numbers for nums1’s elements in the corresponding places of nums

OpenAI澄清:“GPT Next”不是新模型。

不,”GPT Next” 并不是OpenAI的下一个重要项目。 本周早些时候,OpenAI 日本业务的负责人长崎忠男在日本 KDDI 峰会上分享了一场演讲,似乎在暗示一个名为 “GPT Next” 的新模型即将出现。 但OpenAI的一位发言人已向Mashable证实,幻灯片中用引号括起来的”GPT Next”一词只是一个假设性占位符,旨在表明OpenAI的模型如何随着时间呈指数级进化。发言人