Java调用oozie提交spark on yarn任务

2024-08-24 19:58

本文主要是介绍Java调用oozie提交spark on yarn任务,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.需要在oozie-site.xml设置如下属性:

<property> <name>hadoop.proxyuser.cenyuhai.hosts</name> <value>*</value> 
</property> 
<property> <name>hadoop.proxyuser.cenyuhai.groups</name> <value>*</value> 
</property>

如果Oozie报错ClassNotFoundException: Class org.apache.oozie.action.hadoop.SparkMain 再添加一个属性

<property> <name>oozie.use.system.libpath</name> <value>true</value> 
</property>

3.Java调用代码

maven的jar吧

<dependency><groupId>org.apache.oozie</groupId><artifactId>oozie-client</artifactId><version>4.1.0-cdh5.9.0</version></dependency><dependency><groupId>org.apache.oozie</groupId><artifactId>oozie-core</artifactId><version>4.1.0-cdh5.9.0</version><scope>provided</scope></dependency><dependency><groupId>org.apache.oozie</groupId><artifactId>oozie-hadoop</artifactId><version>2.6.0-cdh5.9.2.oozie-4.1.0-cdh5.9.2</version><scope>provided</scope></dependency>


import org.apache.oozie.client.OozieClient;
import org.apache.oozie.client.OozieClientException;
import org.apache.oozie.client.WorkflowJob;
import org.apache.oozie.client.WorkflowJob.Status;import java.util.LinkedList;
import java.util.List;
import java.util.Properties;/*** Created by root on 7/19/17.*/
public class WorkFlowClient {private static String OOZIE_URL = "http://master01:11000/oozie/";private static String JOB_PATH = "hdfs://master01:8020/bobo/in/flow/workflow.xml";private static String JOB_Tracker = "master01:8032";private static String NAMENode = "hdfs://master01:8020";OozieClient wc = null;public WorkFlowClient(String url){wc = new OozieClient(url);}public String startJob(String wfDefinition, List<WorkflowParameter> wfParameters)throws OozieClientException {// create a workflow job configuration and set the workflow application pathProperties conf = wc.createConfiguration();conf.setProperty(OozieClient.APP_PATH, wfDefinition);// setting workflow parametersconf.setProperty("jobTracker", JOB_Tracker);conf.setProperty("nameNode", NAMENode);if((wfParameters != null) && (wfParameters.size() > 0)){for(WorkflowParameter parameter : wfParameters)conf.setProperty(parameter.getName(), parameter.getValue());}// submit and start the workflow jobreturn wc.run(conf);}public Status getJobStatus(String jobID) throws OozieClientException{WorkflowJob job = wc.getJobInfo(jobID);return job.getStatus();}public static void main(String[] args) throws OozieClientException, InterruptedException{// Create clientWorkFlowClient client = new WorkFlowClient(OOZIE_URL);// Create parametersList<WorkflowParameter> wfParameters = new LinkedList<WorkflowParameter>();WorkflowParameter jobmaster = new WorkflowParameter("jobmaster","yarn-client");WorkflowParameter jobmode = new WorkflowParameter("jobmode","client");WorkflowParameter jobname = new WorkflowParameter("jobname","SparkOozieAction");WorkflowParameter jarclass = new WorkflowParameter("jarclass","com.kafkaspark.sparkstreaming.SparkstreamingData");WorkflowParameter jarpath = new WorkflowParameter("jarpath","hdfs://master01:8020/bobo/in/flow/kafkaspark.jar");WorkflowParameter sparkopts = new WorkflowParameter("sparkopts","--num-executors 3 --executor-memory 1G --executor-cores 3 --driver-memory 2G --files config.properties  --conf spark.executor.extraJavaOptions=-XX:+UseConcMarkSweepGC" +" --conf spark.yarn.jar=hdfs://master01:8020/bobo/in/flow/spark-assembly-1.6.0-cdh5.9.0-hadoop2.6.0-cdh5.9.0.jar");WorkflowParameter jararg1 = new WorkflowParameter("jararg1","slave01:9092,slave02:9092,slave03:9092");WorkflowParameter jararg2 = new WorkflowParameter("jararg2","DATA-TOPIC");wfParameters.add(jobmaster);wfParameters.add(jobmode);wfParameters.add(jobname);wfParameters.add(jarclass);wfParameters.add(jarpath);wfParameters.add(sparkopts);wfParameters.add(jararg1);wfParameters.add(jararg2);// Start OozingString jobId = client.startJob(JOB_PATH, wfParameters);Status status = client.getJobStatus(jobId);if(status == Status.RUNNING)System.out.println("Workflow job running");elseSystem.out.println("Problem starting Workflow job");}
}
parameter类就一个name和value属性

4.workflow.xml的配置

<workflow-app name="Spark_Workflow" xmlns="uri:oozie:workflow:0.1">  <start to="spark-SparkOozieAction"/>  <kill name="Kill">  <message>Action failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>  </kill>  <action name="spark-SparkOozieAction">  <spark xmlns="uri:oozie:spark-action:0.1">  <job-tracker>${jobTracker}</job-tracker>  <name-node>${nameNode}</name-node>  <master>${jobmaster}</master>  <mode>${jobmode}</mode>  <name>${jobname}</name>  <class>${jarclass}</class>  <jar>${jarpath}</jar>  <spark-opts>${sparkopts}</spark-opts>  <arg>${jararg1}</arg>  <arg>${jararg2}</arg>  </spark>  <ok to="End"/>  <error to="Kill"/>  </action>  <end name="End"/>  
</workflow-app>  
5.你就可以去oozie的web界面查看提交的job




这篇关于Java调用oozie提交spark on yarn任务的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1103454

相关文章

JVM 的类初始化机制

前言 当你在 Java 程序中new对象时,有没有考虑过 JVM 是如何把静态的字节码(byte code)转化为运行时对象的呢,这个问题看似简单,但清楚的同学相信也不会太多,这篇文章首先介绍 JVM 类初始化的机制,然后给出几个易出错的实例来分析,帮助大家更好理解这个知识点。 JVM 将字节码转化为运行时对象分为三个阶段,分别是:loading 、Linking、initialization

Spring Security 基于表达式的权限控制

前言 spring security 3.0已经可以使用spring el表达式来控制授权,允许在表达式中使用复杂的布尔逻辑来控制访问的权限。 常见的表达式 Spring Security可用表达式对象的基类是SecurityExpressionRoot。 表达式描述hasRole([role])用户拥有制定的角色时返回true (Spring security默认会带有ROLE_前缀),去

浅析Spring Security认证过程

类图 为了方便理解Spring Security认证流程,特意画了如下的类图,包含相关的核心认证类 概述 核心验证器 AuthenticationManager 该对象提供了认证方法的入口,接收一个Authentiaton对象作为参数; public interface AuthenticationManager {Authentication authenticate(Authenti

Spring Security--Architecture Overview

1 核心组件 这一节主要介绍一些在Spring Security中常见且核心的Java类,它们之间的依赖,构建起了整个框架。想要理解整个架构,最起码得对这些类眼熟。 1.1 SecurityContextHolder SecurityContextHolder用于存储安全上下文(security context)的信息。当前操作的用户是谁,该用户是否已经被认证,他拥有哪些角色权限…这些都被保

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

Java架构师知识体认识

源码分析 常用设计模式 Proxy代理模式Factory工厂模式Singleton单例模式Delegate委派模式Strategy策略模式Prototype原型模式Template模板模式 Spring5 beans 接口实例化代理Bean操作 Context Ioc容器设计原理及高级特性Aop设计原理Factorybean与Beanfactory Transaction 声明式事物

作业提交过程之HDFSMapReduce

作业提交全过程详解 (1)作业提交 第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。 第2步:Client向RM申请一个作业id。 第3步:RM给Client返回该job资源的提交路径和作业id。 第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。 第5步:Client提交完资源后,向RM申请运行MrAp

Java进阶13讲__第12讲_1/2

多线程、线程池 1.  线程概念 1.1  什么是线程 1.2  线程的好处 2.   创建线程的三种方式 注意事项 2.1  继承Thread类 2.1.1 认识  2.1.2  编码实现  package cn.hdc.oop10.Thread;import org.slf4j.Logger;import org.slf4j.LoggerFactory

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听