jobserver 具体参数设置

2024-05-07 15:32

本文主要是介绍jobserver 具体参数设置,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Job Server概述

Spark-jobserver 提供了一个 RESTful 接口来提交和管理 spark 的 jobs、jars 和 job contexts。此项目包含了完整的 Spark job server 的项目,包括单元测试和项目部署脚本。
“Spark as Service”:针对 job 和 contexts 的各个方面提供了 REST 风格的 api 接口进行管理

  • 支持 SparkSQL、Hive、Streaming Contexts/jobs 以及定制 job contexts
  • 通过集成 Apache Shiro 来支持 LDAP 权限验证
  • 支持亚秒级别低延迟的任务通过长期运行的 job contexts
  • 可以通过结束 context 来停止运行的作业(job)
  • 分割 jar 上传步骤以提高 job 的启动
  • 异步和同步的 job API,其中同步 API 对低延时作业非常有效
  • 支持 Standalone Spark 和 Mesos、yarn
  • Job 和 jar 信息通过一个可插拔的 DAO 接口来持久化
  • 命名 RDD 以缓存,并可以通过该名称获取 RDD。这样可以提高作业间 RDD 的共享和重用
  • 支持 Scala 2.10 版本和 2.11 版本
    git地址: git@github.com:spark-jobserver/spark-jobserver.git

编译、打包、部署

从github中clone此项目的代码,此处选择jobserver-0.6.2-spark-1.6.1版本分支。
首先根据目标平台来创建相应的配置文件:
$JOBSERVER_HOME/config目录下已存在一些配置模板,可以复用这些模板并对其中的配置项做相应的调整。
在conf目录下创建datacloud.conf及datacloud.sh文件,修改其中的配置项。

$JOBSERVER_HOME/bin/server_package datacloud //编译打包
打包成功后,拷贝出job-server.tar.gz到目标运行平台,应该部署安装spark的服务器环境中。

启动、停止服务

$JOBSERVER_HOME/bin/server_start 启动服务,默认监听端口为8090,可在启动前修改datacloud.conf进行配置。
$JOBSERVER_HOME/bin/server_stop停止服务,注意服务停止后,常驻context将停止运行,因此,重启jobserver需要重新创建常驻context。

定制job Project

添加依赖:

resolvers += "Job Server Bintray" at "https://dl.bintray.com/spark-jobserver/maven"
libraryDependencies += "spark.jobserver" %% "job-server-api" % "0.6.2" % "provided"
libraryDependencies += "spark.jobserver" %% "job-server-extras" % "0.6.2" % "provided"

通过job server来提交的job,必须实现SparkJob相关的接口,这是jobserver复用context机制的前提:

object SampleJob  extends SparkJob {override def runJob(sc:SparkContext, jobConfig: Config): Any = ???override def validate(sc:SparkContext, config: Config): SparkJobValidation = ???
}

runJob定义一个job的具体实现逻辑。
validate在job执行之前做参数进行验证,验证通过后才会调用runjob方法。

Context管理

GET /contexts - 列出当前所有context
POST /contexts/<name> - 创建context
DELETE /contexts/<name> - 停止一个context,并且停止所有在其运行的作业。
PUT /contexts?reset=reboot - 删除所有context,并且从配置中重新重建context。

POST创建context时,可以对context资源进行配置:
dependent-jar-uris=file:///path/a.jar,file:///path/b.jar 此参数用以对依赖jar包进行配置
num-cpu-cores=10 配置cpu资源
memory-per-node=512m 配置内存资源
上述配置会覆盖datacloud.conf相同的配置项,可配置项可参考job-server/src/main/resources/application.conf

Job管理

GET /jobs - 列出所有job,以及job执行状态,包括等待中、运行中、已完成
POST /jobs - 启动新作业,参数?sync=true标志同步等待作业计算结果
GET /jobs/<jobId> - 获取指定job的执行状态和结果
DELETE /jobs/<jobId> - kill特定job
GET /jobs/<jobId>/config - 获取job相关的配置信息

Job Server使用

临时异步方式提交作业

此方式会临时创建context,作业执行完成后,context被删除。

curl -d "input.string = a b c a b see" '172.16.31.63:8092/jobs?appName=test&classPath=spark.jobserver.WordCountExample
{"status": "STARTED","result": {"jobId": "5453779a-f004-45fc-a11d-a39dae0f9bf4","context": "b7ea0eb5-spark.jobserver.WordCountExample"}
}

因为是异步方式提交作业,需要主动检查作业的执行结果:

curl localhost:8090/jobs/5453779a-f004-45fc-a11d-a39dae0f9bf4
{"duration": "6.341 secs","classPath": "spark.jobserver.WordCountExample","startTime": "2015-10-16T03:17:03.127Z","context": "b7ea0eb5-spark.jobserver.WordCountExample","result": {"a": 2,"b": 2,"c": 1,"see": 1},"status": "FINISHED","jobId": "5453779a-f004-45fc-a11d-a39dae0f9bf4"
}

临时同步方式提交作业

添加sync参数,值为true

curl -d "input.string = a b c a b see" '172.16.31.63:8092/jobs?appName=test&classPath=spark.jobserver.WordCountExample&sync=true'

请求的response中将包含计算结果数据

{"result": {"b": 2,"a": 2,"see": 1,"c": 1}
}

常驻context同步方式提交作业

首先创建一个常驻context

curl -d "" '172.16.31.63:8092/contexts/test-context?num-cpu-cores=4&memory-per-node=512m'

基于此context来创建一个job

curl -d "input.string = a b c a b see" '172.16.31.63:8092/jobs?appName=test&classPath=spark.jobserver.WordCountExample&context=test-context&sync=true'

常驻Context集群已为其分配资源,并且会一直处于运行状态,提交作业时,将会复用此Context进行计算。
如果Jobserver服务进行重启,之前的Context将会终止,其占用资源将被释放。

这篇关于jobserver 具体参数设置的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/967747

相关文章

Qt中QUndoView控件的具体使用

《Qt中QUndoView控件的具体使用》QUndoView是Qt框架中用于可视化显示QUndoStack内容的控件,本文主要介绍了Qt中QUndoView控件的具体使用,具有一定的参考价值,感兴趣的... 目录引言一、QUndoView 的用途二、工作原理三、 如何与 QUnDOStack 配合使用四、自

go中空接口的具体使用

《go中空接口的具体使用》空接口是一种特殊的接口类型,它不包含任何方法,本文主要介绍了go中空接口的具体使用,具有一定的参考价值,感兴趣的可以了解一下... 目录接口-空接口1. 什么是空接口?2. 如何使用空接口?第一,第二,第三,3. 空接口几个要注意的坑坑1:坑2:坑3:接口-空接口1. 什么是空接

通俗易懂的Java常见限流算法具体实现

《通俗易懂的Java常见限流算法具体实现》:本文主要介绍Java常见限流算法具体实现的相关资料,包括漏桶算法、令牌桶算法、Nginx限流和Redis+Lua限流的实现原理和具体步骤,并比较了它们的... 目录一、漏桶算法1.漏桶算法的思想和原理2.具体实现二、令牌桶算法1.令牌桶算法流程:2.具体实现2.1

Java中List转Map的几种具体实现方式和特点

《Java中List转Map的几种具体实现方式和特点》:本文主要介绍几种常用的List转Map的方式,包括使用for循环遍历、Java8StreamAPI、ApacheCommonsCollect... 目录前言1、使用for循环遍历:2、Java8 Stream API:3、Apache Commons

python subprocess.run中的具体使用

《pythonsubprocess.run中的具体使用》subprocess.run是Python3.5及以上版本中用于运行子进程的函数,它提供了更简单和更强大的方式来创建和管理子进程,本文就来详细... 目录一、详解1.1、基本用法1.2、参数详解1.3、返回值1.4、示例1.5、总结二、subproce

wolfSSL参数设置或配置项解释

1. wolfCrypt Only 解释:wolfCrypt是一个开源的、轻量级的、可移植的加密库,支持多种加密算法和协议。选择“wolfCrypt Only”意味着系统或应用将仅使用wolfCrypt库进行加密操作,而不依赖其他加密库。 2. DTLS Support 解释:DTLS(Datagram Transport Layer Security)是一种基于UDP的安全协议,提供类似于

笔记本电脑的具体选购步骤流程

2.1 笔记本电脑的具体选购步骤流程   关于笔记本电脑的选购,一直是热点话题。不管是新手还是老前辈,选购前,总是要先上网查一查,汇总一些信息或经验。因为选购一台笔记本电脑,从它的配置、外观到做工等很多方面都需要考量,所以挑一台自己喜欢的、适合自己的笔记本电脑也是一件很费脑筋的事情。本节将一些选购笔记本电脑的经验进行了总结,供广大读者选购笔记本电脑时参考。   笔记本电脑选购流程如下

ScheduledThreadPoolEcecutor具体实现

嗯哼~开讲 ScheduledThreadPoolExecutor会把调度的任务放到一个DelayQueue(core)中。 ScheduledFutureTask: 主要包含3个成员变量: long型的time:表示这个任务将要执行的具体时间。long型成员变量sequenceNumber:表示这个任务被添加到ScheduledFutureTask中的序号。long型period:表示任务执行

urdf ( xacro ) 的 collision碰撞参数设置

目录 写在前面的话整体流程1 URDF 文件结构2 查看原始碰撞形状描述3 加入简单碰撞形状描述方法一 Meshlab 自动测量方法二 人为测量 4 加入XACRO函数简化描述 最终结果展示侧视图正视图碰撞几何体中心点设置不对出现的结果 写在前面的话 本文使用的 URDF 文件是由 solidworks 的 URDF export 插件生成,详情请看上一篇文章:solidwor

【扩散模型(十)】IP-Adapter 源码详解 4 - 训练细节、具体训了哪些层?

系列文章目录 【扩散模型(一)】中介绍了 Stable Diffusion 可以被理解为重建分支(reconstruction branch)和条件分支(condition branch)【扩散模型(二)】IP-Adapter 从条件分支的视角,快速理解相关的可控生成研究【扩散模型(三)】IP-Adapter 源码详解1-训练输入 介绍了训练代码中的 image prompt 的输入部分,即 i