Java调用oozie提交spark on yarn任务

2024-08-24 19:58

本文主要是介绍Java调用oozie提交spark on yarn任务,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.需要在oozie-site.xml设置如下属性:

<property> <name>hadoop.proxyuser.cenyuhai.hosts</name> <value>*</value> 
</property> 
<property> <name>hadoop.proxyuser.cenyuhai.groups</name> <value>*</value> 
</property>

如果Oozie报错ClassNotFoundException: Class org.apache.oozie.action.hadoop.SparkMain 再添加一个属性

<property> <name>oozie.use.system.libpath</name> <value>true</value> 
</property>

3.Java调用代码

maven的jar吧

<dependency><groupId>org.apache.oozie</groupId><artifactId>oozie-client</artifactId><version>4.1.0-cdh5.9.0</version></dependency><dependency><groupId>org.apache.oozie</groupId><artifactId>oozie-core</artifactId><version>4.1.0-cdh5.9.0</version><scope>provided</scope></dependency><dependency><groupId>org.apache.oozie</groupId><artifactId>oozie-hadoop</artifactId><version>2.6.0-cdh5.9.2.oozie-4.1.0-cdh5.9.2</version><scope>provided</scope></dependency>


import org.apache.oozie.client.OozieClient;
import org.apache.oozie.client.OozieClientException;
import org.apache.oozie.client.WorkflowJob;
import org.apache.oozie.client.WorkflowJob.Status;import java.util.LinkedList;
import java.util.List;
import java.util.Properties;/*** Created by root on 7/19/17.*/
public class WorkFlowClient {private static String OOZIE_URL = "http://master01:11000/oozie/";private static String JOB_PATH = "hdfs://master01:8020/bobo/in/flow/workflow.xml";private static String JOB_Tracker = "master01:8032";private static String NAMENode = "hdfs://master01:8020";OozieClient wc = null;public WorkFlowClient(String url){wc = new OozieClient(url);}public String startJob(String wfDefinition, List<WorkflowParameter> wfParameters)throws OozieClientException {// create a workflow job configuration and set the workflow application pathProperties conf = wc.createConfiguration();conf.setProperty(OozieClient.APP_PATH, wfDefinition);// setting workflow parametersconf.setProperty("jobTracker", JOB_Tracker);conf.setProperty("nameNode", NAMENode);if((wfParameters != null) && (wfParameters.size() > 0)){for(WorkflowParameter parameter : wfParameters)conf.setProperty(parameter.getName(), parameter.getValue());}// submit and start the workflow jobreturn wc.run(conf);}public Status getJobStatus(String jobID) throws OozieClientException{WorkflowJob job = wc.getJobInfo(jobID);return job.getStatus();}public static void main(String[] args) throws OozieClientException, InterruptedException{// Create clientWorkFlowClient client = new WorkFlowClient(OOZIE_URL);// Create parametersList<WorkflowParameter> wfParameters = new LinkedList<WorkflowParameter>();WorkflowParameter jobmaster = new WorkflowParameter("jobmaster","yarn-client");WorkflowParameter jobmode = new WorkflowParameter("jobmode","client");WorkflowParameter jobname = new WorkflowParameter("jobname","SparkOozieAction");WorkflowParameter jarclass = new WorkflowParameter("jarclass","com.kafkaspark.sparkstreaming.SparkstreamingData");WorkflowParameter jarpath = new WorkflowParameter("jarpath","hdfs://master01:8020/bobo/in/flow/kafkaspark.jar");WorkflowParameter sparkopts = new WorkflowParameter("sparkopts","--num-executors 3 --executor-memory 1G --executor-cores 3 --driver-memory 2G --files config.properties  --conf spark.executor.extraJavaOptions=-XX:+UseConcMarkSweepGC" +" --conf spark.yarn.jar=hdfs://master01:8020/bobo/in/flow/spark-assembly-1.6.0-cdh5.9.0-hadoop2.6.0-cdh5.9.0.jar");WorkflowParameter jararg1 = new WorkflowParameter("jararg1","slave01:9092,slave02:9092,slave03:9092");WorkflowParameter jararg2 = new WorkflowParameter("jararg2","DATA-TOPIC");wfParameters.add(jobmaster);wfParameters.add(jobmode);wfParameters.add(jobname);wfParameters.add(jarclass);wfParameters.add(jarpath);wfParameters.add(sparkopts);wfParameters.add(jararg1);wfParameters.add(jararg2);// Start OozingString jobId = client.startJob(JOB_PATH, wfParameters);Status status = client.getJobStatus(jobId);if(status == Status.RUNNING)System.out.println("Workflow job running");elseSystem.out.println("Problem starting Workflow job");}
}
parameter类就一个name和value属性

4.workflow.xml的配置

<workflow-app name="Spark_Workflow" xmlns="uri:oozie:workflow:0.1">  <start to="spark-SparkOozieAction"/>  <kill name="Kill">  <message>Action failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>  </kill>  <action name="spark-SparkOozieAction">  <spark xmlns="uri:oozie:spark-action:0.1">  <job-tracker>${jobTracker}</job-tracker>  <name-node>${nameNode}</name-node>  <master>${jobmaster}</master>  <mode>${jobmode}</mode>  <name>${jobname}</name>  <class>${jarclass}</class>  <jar>${jarpath}</jar>  <spark-opts>${sparkopts}</spark-opts>  <arg>${jararg1}</arg>  <arg>${jararg2}</arg>  </spark>  <ok to="End"/>  <error to="Kill"/>  </action>  <end name="End"/>  
</workflow-app>  
5.你就可以去oozie的web界面查看提交的job




这篇关于Java调用oozie提交spark on yarn任务的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1103454

相关文章

Java中ArrayList和LinkedList有什么区别举例详解

《Java中ArrayList和LinkedList有什么区别举例详解》:本文主要介绍Java中ArrayList和LinkedList区别的相关资料,包括数据结构特性、核心操作性能、内存与GC影... 目录一、底层数据结构二、核心操作性能对比三、内存与 GC 影响四、扩容机制五、线程安全与并发方案六、工程

JavaScript中的reduce方法执行过程、使用场景及进阶用法

《JavaScript中的reduce方法执行过程、使用场景及进阶用法》:本文主要介绍JavaScript中的reduce方法执行过程、使用场景及进阶用法的相关资料,reduce是JavaScri... 目录1. 什么是reduce2. reduce语法2.1 语法2.2 参数说明3. reduce执行过程

如何使用Java实现请求deepseek

《如何使用Java实现请求deepseek》这篇文章主要为大家详细介绍了如何使用Java实现请求deepseek功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1.deepseek的api创建2.Java实现请求deepseek2.1 pom文件2.2 json转化文件2.2

Java调用DeepSeek API的最佳实践及详细代码示例

《Java调用DeepSeekAPI的最佳实践及详细代码示例》:本文主要介绍如何使用Java调用DeepSeekAPI,包括获取API密钥、添加HTTP客户端依赖、创建HTTP请求、处理响应、... 目录1. 获取API密钥2. 添加HTTP客户端依赖3. 创建HTTP请求4. 处理响应5. 错误处理6.

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

Spring Cloud LoadBalancer 负载均衡详解

《SpringCloudLoadBalancer负载均衡详解》本文介绍了如何在SpringCloud中使用SpringCloudLoadBalancer实现客户端负载均衡,并详细讲解了轮询策略和... 目录1. 在 idea 上运行多个服务2. 问题引入3. 负载均衡4. Spring Cloud Load

Springboot中分析SQL性能的两种方式详解

《Springboot中分析SQL性能的两种方式详解》文章介绍了SQL性能分析的两种方式:MyBatis-Plus性能分析插件和p6spy框架,MyBatis-Plus插件配置简单,适用于开发和测试环... 目录SQL性能分析的两种方式:功能介绍实现方式:实现步骤:SQL性能分析的两种方式:功能介绍记录

在 Spring Boot 中使用 @Autowired和 @Bean注解的示例详解

《在SpringBoot中使用@Autowired和@Bean注解的示例详解》本文通过一个示例演示了如何在SpringBoot中使用@Autowired和@Bean注解进行依赖注入和Bean... 目录在 Spring Boot 中使用 @Autowired 和 @Bean 注解示例背景1. 定义 Stud

如何通过海康威视设备网络SDK进行Java二次开发摄像头车牌识别详解

《如何通过海康威视设备网络SDK进行Java二次开发摄像头车牌识别详解》:本文主要介绍如何通过海康威视设备网络SDK进行Java二次开发摄像头车牌识别的相关资料,描述了如何使用海康威视设备网络SD... 目录前言开发流程问题和解决方案dll库加载不到的问题老旧版本sdk不兼容的问题关键实现流程总结前言作为

SpringBoot中使用 ThreadLocal 进行多线程上下文管理及注意事项小结

《SpringBoot中使用ThreadLocal进行多线程上下文管理及注意事项小结》本文详细介绍了ThreadLocal的原理、使用场景和示例代码,并在SpringBoot中使用ThreadLo... 目录前言技术积累1.什么是 ThreadLocal2. ThreadLocal 的原理2.1 线程隔离2