本文主要是介绍远程submit任务到spark(docker),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法,不过spark on yarn的集群部署模式不支持http的方式提交任务,所以需要通过远程docker容器通过docker发送spark-submit的指令到spark容器内部,才可在springboot项目中远程开启任务
spark-submit在服务端的调用流程如下:
spark-on-yarn模式远程提交docker指令流程如下
首先需要先在服务端配置可被远程访问的api端口
vi /lib/systemd/system/docker.service
找到 Execstart=/usr/bin/dockerd,并在后加上如下内容,然后保存退出
-H tcp://0.0.0.0:2375 -H un
这篇关于远程submit任务到spark(docker)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!