本文主要是介绍大数据spark3.5安装部署之local模式详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
《大数据spark3.5安装部署之local模式详解》本文介绍了如何在本地模式下安装和配置Spark,并展示了如何使用SparkShell进行基本的数据处理操作,同时,还介绍了如何通过Spark-su...
spark,一个数据处理框架和计算引擎。
下载
local模式即本地模式,就是不需要任何其他节点资源就可以在本地执行spark代码的环境。用于练习演示。
上传解压
使用PortX将文件上传至/opt
进入/opt目录,创建目录module,解压文件至/opt/module
进入module,并修改名称
配置jdk
启动spark前要安装jdk,上传jdk文件
解压
tar zxvf jdk-8u271-linux-x64.tar.gz
配置环境变量
以root用户配置环境变量
cd ~
保存后,以root用户,执行source .profle,使更改生效,并验证。
启动查看
进入spark-local,android执行命令bin/spark-shell 启动spark,如下所示则成功启动
启动成功后,可以通过浏览器访问WebUI监控页面
http://ip:4040
交互操作
使用命令行或者提交作业的方式,与spark进行交互。
命令行
进入spark目录中的data文件夹,添加test.txt文件
vi test.txt
进入spark-standalone/bin目录,执行./spark-shell,启动命令行,执行以下内容
sc.textFile("../data/test.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collepythonct
退出CiebhILtrl+c或者输入:quit后回车
提交应用
对于公司大数据的批量处理或周期性数据分析/处理任务,通常采用编写好的Spark程序,并通过Spark-submit指令的方式提交给Spark集群进行具体的任务计算。
bin/spark-submit \
--class org.apache.spark.China编程examples.SparkPi \
--master local[2] \
./examples/jars/spark-examples_2.12-3.5.5.jar \
10
备注:路径等信息如下,示例代码都位于spark目录中。
到此这篇关于大数据spark3.5安装部署之local模式详解的文编程章就介绍到这了,更多相关spark安装部署内容请搜索China编程(www.chinasem.cn)以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程China编程(www.chinasem.cn)!
这篇关于大数据spark3.5安装部署之local模式详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!