使用spark基于出租车GPS数据实现车辆数量统计以及北京每个城区的车辆位置点数分析

本文主要是介绍使用spark基于出租车GPS数据实现车辆数量统计以及北京每个城区的车辆位置点数分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用spark基于出租车GPS数据实现车辆数量统计以及北京每个城区的车辆位置点数分析

本文将介绍如何使用pyspark以及scala实现的spark分析出租车GPS数据,具体来说,我们将计算每个北京城区内的车辆位置点数,以及统计出租车的数量。我们将使用两个数据集:district.txt 包含北京各城区的中心坐标和半径,taxi_gps.txt 包含出租车的GPS位置数据。以下是数据文件的示例内容

1、数据解析

出租车GPS数据文件(taxi_gps.txt)
在这里插入图片描述
北京区域中心坐标及半径数据文件(district.txt)
在这里插入图片描述

2、需求分析

·能够输出以下统计信息
·A:该出租车GPS数据文件(taxi_gps.txt)包含多少量车?
·B:北京每个城区的车辆位置点数(每辆车有多个位置点,允许重复)

A输出:
·以第一列统计车辆数,去重·输出

B输出:
1.从(district.txt)文件中取第一个区的记录,获得其名称D、中心坐标M(xo,yo)和半径r;
2.从(taxi_gps.txt)中获取第一条位置点记录,获得其坐标N(xp,y)
3.利用欧几里得距离计算公式计算点M和N的距离dis,如果dis<r,则认为该位置记录属于区域D;得到<D¡,1>
4.继续从2开始循环,获得第二个位置记录;直至所有记录遍历完。·5.继续从1开始循环,获得第二个区的记录 district.txt

3、统计出租车的数量

接下来,我们统计出租车的数量。我们可以简单地读取taxi_gps.txt文件,然后使用countDistinct函数来统计不同车辆标识的数量。

python实现该功能的代码

from pyspark.sql import SparkSession
from pyspark.sql.functions import countDistinct# 创建一个SparkSession
spark = SparkSession.builder \.getOrCreate()# 读取出租车GPS数据
taxi_df = spark.read.csv("data/taxi_gps.txt", header=False, inferSchema=True)# 计算唯一出租车的数量
num_taxis = taxi_df.select(countDistinct("_c0")).collect()[0][0]# 输出结果
print("出租车的数量为:", num_taxis)# 停止SparkSession
spark.stop()

scala实现该功能的代码

import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.functions.countDistinctobject CarCount{def main(args: Array[String]): Unit = {// 创建一个SparkSessionval spark = SparkSession.builder().appName("TaxiGPS").master("local").getOrCreate()// 读取出租车GPS数据val taxiDF = spark.read.option("header", "false").option("inferSchema", "true").csv("data/taxi_gps.txt")// 计算唯一出租车的数量val numTaxis = taxiDF.select(countDistinct("_c0")).collect()(0)(0)// 输出结果println(s"出租车的数量为: $numTaxis")// 停止SparkSessionspark.stop()}}

在这里插入图片描述

4、计算每个城区内每辆车的位置点数

首先,我们使用PySpark读取数据并计算每个城区内每辆车的位置点数。为了实现这一点,我们需要计算每个出租车位置与各城区中心的距离,然后检查距离是否在城区的半径范围内。

python实现该功能的代码

from pyspark.sql import SparkSession
from pyspark.sql.functions import col, countDistinct, udf# 创建一个SparkSession
spark = SparkSession.builder \.getOrCreate()# 读取区域信息和出租车GPS数据
district_df = spark.read.csv("data/district.txt", header=False, inferSchema=True)
taxi_df = spark.read.csv("data/taxi_gps.txt", header=False, inferSchema=True)# 提取区域信息
district_info = district_df.select(col("_c0").alias("area"),col("_c1").cast("double").alias("center_a"),col("_c2").cast("double").alias("center_b"),col("_c3").cast("double").alias("radio"))# 定义UDF以计算两点之间的欧几里得距离
def euclidean_distance(x1, y1, x2, y2):return ((x1 - x2) ** 2 + (y1 - y2) ** 2) ** 0.5calculate_distance = udf(euclidean_distance)# 计算每个城区内每辆车的位置点数
result_df = district_info.crossJoin(taxi_df) \.withColumn("distance", calculate_distance(col("center_a"), col("center_b"), col("_c4"), col("_c5"))).createTempView("car")spark.sql("select _c0 as car,count(distinct(area)) as cnt  from car where distance*1000 < radio group by _c0").show()spark.stop()

scala实现该功能的代码

package org.exampleimport org.apache.spark.sql.SparkSession
import org.apache.spark.sql.functions._
import org.apache.spark.sql.expressions.UserDefinedFunctionobject CarLocation {def main(args: Array[String]): Unit = {// 创建一个SparkSessionval spark = SparkSession.builder().appName("TaxiGPS").master("local[*]").getOrCreate()// 读取区域信息和出租车GPS数据val districtDF = spark.read.option("header", "false").option("inferSchema", "true").csv("data/district.txt")val taxiDF = spark.read.option("header", "false").option("inferSchema", "true").csv("data/taxi_gps.txt")// 提取区域信息val districtInfo = districtDF.select(col("_c0").alias("area"),col("_c1").cast("double").alias("center_a"),col("_c2").cast("double").alias("center_b"),col("_c3").cast("double").alias("radio"))// 定义UDF以计算两点之间的欧几里得距离def euclideanDistance(x1: Double, y1: Double, x2: Double, y2: Double): Double = {math.sqrt(math.pow(x1 - x2, 2) + math.pow(y1 - y2, 2))}val calculateDistance: UserDefinedFunction = udf(euclideanDistance _)// 计算每个城区内每辆车的位置点数val resultDF = districtInfo.crossJoin(taxiDF).withColumn("distance", calculateDistance(col("center_a"), col("center_b"), col("_c4"), col("_c5")))resultDF.createOrReplaceTempView("car")spark.sql("SELECT _c0 AS car, COUNT(DISTINCT area) AS cnt FROM car WHERE distance * 1000 < radio GROUP BY _c0").show()// 停止SparkSessionspark.stop()}}

在这里插入图片描述

总结

通过以上两个代码示例,我们使用PySpark成功地计算了北京各城区内每辆车的位置点数,并统计了出租车的数量。这些分析可以帮助我们更好地理解出租车在各个城区的分布情况,进而为城市交通管理提供数据支持。PySpark强大的数据处理能力和灵活的编程接口,使得我们能够轻松地处理和分析大规模的GPS数据。

如有遇到问题可以找小编沟通交流哦。另外小编帮忙辅导大课作业,学生毕设等。不限于MapReduce, MySQL, python,java,大数据,模型训练等。 hadoop hdfs yarn spark Django flask flink kafka flume datax sqoop seatunnel echart可视化 机器学习等
在这里插入图片描述

这篇关于使用spark基于出租车GPS数据实现车辆数量统计以及北京每个城区的车辆位置点数分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1052150

相关文章

Tolua使用笔记(上)

目录   1.准备工作 2.运行例子 01.HelloWorld:在C#中,创建和销毁Lua虚拟机 和 简单调用。 02.ScriptsFromFile:在C#中,对一个lua文件的执行调用 03.CallLuaFunction:在C#中,对lua函数的操作 04.AccessingLuaVariables:在C#中,对lua变量的操作 05.LuaCoroutine:在Lua中,

Vim使用基础篇

本文内容大部分来自 vimtutor,自带的教程的总结。在终端输入vimtutor 即可进入教程。 先总结一下,然后再分别介绍正常模式,插入模式,和可视模式三种模式下的命令。 目录 看完以后的汇总 1.正常模式(Normal模式) 1.移动光标 2.删除 3.【:】输入符 4.撤销 5.替换 6.重复命令【. ; ,】 7.复制粘贴 8.缩进 2.插入模式 INSERT

Lipowerline5.0 雷达电力应用软件下载使用

1.配网数据处理分析 针对配网线路点云数据,优化了分类算法,支持杆塔、导线、交跨线、建筑物、地面点和其他线路的自动分类;一键生成危险点报告和交跨报告;还能生成点云数据采集航线和自主巡检航线。 获取软件安装包联系邮箱:2895356150@qq.com,资源源于网络,本介绍用于学习使用,如有侵权请您联系删除! 2.新增快速版,简洁易上手 支持快速版和专业版切换使用,快速版界面简洁,保留主

如何免费的去使用connectedpapers?

免费使用connectedpapers 1. 打开谷歌浏览器2. 按住ctrl+shift+N,进入无痕模式3. 不需要登录(也就是访客模式)4. 两次用完,关闭无痕模式(继续重复步骤 2 - 4) 1. 打开谷歌浏览器 2. 按住ctrl+shift+N,进入无痕模式 输入网址:https://www.connectedpapers.com/ 3. 不需要登录(也就是

[职场] 公务员的利弊分析 #知识分享#经验分享#其他

公务员的利弊分析     公务员作为一种稳定的职业选择,一直备受人们的关注。然而,就像任何其他职业一样,公务员职位也有其利与弊。本文将对公务员的利弊进行分析,帮助读者更好地了解这一职业的特点。 利: 1. 稳定的职业:公务员职位通常具有较高的稳定性,一旦进入公务员队伍,往往可以享受到稳定的工作环境和薪资待遇。这对于那些追求稳定的人来说,是一个很大的优势。 2. 薪资福利优厚:公务员的薪资和

通过SSH隧道实现通过远程服务器上外网

搭建隧道 autossh -M 0 -f -D 1080 -C -N user1@remotehost##验证隧道是否生效,查看1080端口是否启动netstat -tuln | grep 1080## 测试ssh 隧道是否生效curl -x socks5h://127.0.0.1:1080 -I http://www.github.com 将autossh 设置为服务,隧道开机启动

【服务器运维】MySQL数据存储至数据盘

查看磁盘及分区 [root@MySQL tmp]# fdisk -lDisk /dev/sda: 21.5 GB, 21474836480 bytes255 heads, 63 sectors/track, 2610 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical)

时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测

时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测 目录 时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测基本介绍程序设计参考资料 基本介绍 MATLAB实现LSTM时间序列未来多步预测-递归预测。LSTM是一种含有LSTM区块(blocks)或其他的一种类神经网络,文献或其他资料中LSTM区块可能被描述成智能网络单元,因为

vue项目集成CanvasEditor实现Word在线编辑器

CanvasEditor实现Word在线编辑器 官网文档:https://hufe.club/canvas-editor-docs/guide/schema.html 源码地址:https://github.com/Hufe921/canvas-editor 前提声明: 由于CanvasEditor目前不支持vue、react 等框架开箱即用版,所以需要我们去Git下载源码,拿到其中两个主

android一键分享功能部分实现

为什么叫做部分实现呢,其实是我只实现一部分的分享。如新浪微博,那还有没去实现的是微信分享。还有一部分奇怪的问题:我QQ分享跟QQ空间的分享功能,我都没配置key那些都是原本集成就有的key也可以实现分享,谁清楚的麻烦详解下。 实现分享功能我们可以去www.mob.com这个网站集成。免费的,而且还有短信验证功能。等这分享研究完后就研究下短信验证功能。 开始实现步骤(新浪分享,以下是本人自己实现