论文阅读Unraveling traveler mobility patterns and predicting user behavior in the Shenzhen metro system

本文主要是介绍论文阅读Unraveling traveler mobility patterns and predicting user behavior in the Shenzhen metro system,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这篇论文主要是对地铁出行者的出行模式进行分析,然后借助entropy来对出行者的出行规律性进行度量,在此基础上根据entropy将出行者划分为三类,并分别用马尔科夫链和HMM模型进行预测分析。

1.entropy计算

作者使用entropy来进行出行规律性的度量,在此之前,需要进行一些预先的处理。对于出行者的出行时空特性,需要进行离散化表达,因为entropy的计算需要离散的值。
对于出行者的空间特性,基于地铁刷卡数据挖掘出出行者最频繁出现的站点和第二频繁出行的站点,这两个站点一般而言就是出行者的家和工作地。所有其他站点都设置为其他。最频繁出现的站点标记为1,第二频繁出现的站点标记为2,其他所有站点都标记为3。
对于出行者的时间特性,作者将一天划分为四个时间段,分别是早上、下午、傍晚和夜间,morning (6 a.m. to 11 a.m.), afternoon (11 a.m. to 4 p.m.), evening(4 p.m. to 8 p.m.) and night (8 p.m. to 12 p.m.)。
作者使用一个三元组作为一个item,三元组的表示为{s1,s2,y},其中s1是入站、s2是出站,y是时间。因此的话所有item项目的可能性为:[(1, 2,M),(1, 3,M),(2, 1,M),(2, 3,M), (3, 1,M),(3, 2,M),(3, 3,M),(1, 2,A),(1, 3,A),(2, 1,A),(2, 3,A),(3, 1,A),(3, 2,A),(3, 3,A),
(1, 2,E),(1, 3,E),(2, 1,E),(2, 3,E),(3, 1,E),(3, 2,E),(3, 3,E),(1, 2,N),(1, 3,N),(2, 1,N),(2,3,N),(3,1,N),(3, 2,N),(3, 3,N)]。
成功对每一位出行者的出行序列进行表示后,使用下式进行entropy的计算。其中x代表空间位置变量,y代表时间变量。P(x,y)代表x和y的联合概率,也就是一个特定用户在时间y出现在位置x的频率。
在这里插入图片描述
计算得到entropy之后,使用kmeans算法将出行者聚类成若干类,在这个研究中,出行者被聚成3类,分别是规律出行者、不规律出行者和可变出行者。

2.出行模式预测

作者在文章中还给出了两种出行模式预测方法,第一种是Markov model,第二种是hidden Markov model,但是由于这并非是我关注的重点,对该部分感兴趣的读者可以详细阅读该文章的后半部分。

3.参考文献

Yang, C. , Yan, F. , & Ukkusuri, S. V. . Unraveling traveler mobility patterns and predicting user behavior in the shenzhen metro system. Transportmetrica.

这篇关于论文阅读Unraveling traveler mobility patterns and predicting user behavior in the Shenzhen metro system的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/230188

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

Partical System

创建"粒子系统物体"(点击菜单GameObject -> Create Other -> Particle System) 添加"粒子系统组件"(点击Component -> Effects  ->Particle System) 粒子系统检视面板  点击粒子系统检视面板的右上角的"+"来增加新的模块。(Show All Modules:显示全部) 初始化模块: •

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

小技巧绕过Sina Visitor System(新浪访客系统)

0x00 前言 一直以来,爬虫与反爬虫技术都时刻进行着博弈,而新浪微博作为一个数据大户更是在反爬虫上不遗余力。常规手段如验证码、封IP等等相信很多人都见识过…… 当然确实有需要的话可以通过新浪开放平台提供的API进行数据采集,但是普通开发者的权限比较低,限制也比较多。所以如果只是做一些简单的功能还是爬虫比较方便~ 应该是今年的早些时候,新浪引入了一个Sina Visitor Syst