使用idea sbt运行spark程序

2023-10-13 12:18
文章标签 使用 程序 idea 运行 spark sbt

本文主要是介绍使用idea sbt运行spark程序,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

scala-sbt 项目(参考 http://blog.sina.com.cn/s/blog_5742944d0102vfwo.html

2.待sbt及相关依赖下载完成后,配置spark依赖

spark 2.0.0后,目录下没有lib文件夹,也找不到assembly jar包,实际上该jar已经分拆成了spark安装目录下的jars文件夹下的各jar包。导入依赖如下

打开idea - file - project structure - libraries,点击“+” - java,选择jars文件夹,“确定”

3.配置application 和 scala consle

点击 Edit Configurations,在Defaults中选择application 和 scala consle,按“+”添加

4.如果有需要,配置启动参数

点击Edit Configurations,配置configuration的VM options 和 Program arguments,分别设置

1)单机模式运行 

VM options = -Dspark.master=local

Program arguments = 文件在本地机器上的绝对路径

2)standalone 集群模式运行 

VM options = -Dspark.master=spark://master:7077 (master应该替换为所需要的集群主机名)

Program arguments = 文件在本地机器上的绝对路径(或者hdfs://... 或者其他路径)

按照如上参数直接在idea启动spark任务,会出现异常

org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 4.0 failed 4 times, most recent failure: Lost task 0.3 in stage 4.0 (TID 77, 192.168.1.194): java.lang.ClassCastException: cannot assign instance of scala.collection.immutable.List$SerializationProxy to field org.apache.spark.rdd.RDD.org$apache$spark$rdd$RDD$$dependencies_ of type scala.collection.Seq in instance of org.apache.spark.rdd.MapPartitionsRDD  (见 https://issues.apache.org/jira/browse/SPARK-9219)

因此,改用submit的方式提交

①点击 File - project structure -artifacts - jar - from modules with dependency,选择对应的module和main class。

②设置VM options = -Dspark.master=spark://master:7077

!!!注意:此模式下,sc.textFile(path)实际上是 hdfs://master:7077/path

③点击 build - build artifacts,生成jar包(位于自己在idea中指定的路径下,本文在项目/out/..目录下)

④zip -d /usr/mywork/project/scala/FirstSpark/out/artifacts/firstspark_jar/firstspark.jar META-INF/*.RSA META-INF/*.DSA META-INF/*.SF

(  /usr/mywork/project/scala/FirstSpark/out/artifacts/firstspark_jar/firstspark.jar是生成的jar路径 

(参考 http://blog.csdn.net/dai451954706/article/details/50086295,如果不加入这一步,会出现错误:Exception in thread "main" java.lang.SecurityException: Invalid signature file digest for Manifest main attributes  

⑤以standalone模式提交(还有其它模式, 参见 http://blog.csdn.net/kinger0/article/details/46562473)

./spark-submit  --class WordCount --master spark://pmaster:7077 /usr/mywork/project/scala/FirstSpark/out/artifacts/firstspark_jar/firstspark.jar

WordCount 代表要执行的任务的入口类;

spark://pmaster:7077 代表所提交的集群的master机器;

/usr/mywork/project/scala/FirstSpark/out/artifacts/firstspark_jar/firstspark.jar 代表所要提交的jar包




非sbt scala项目(参考 《Spark实战高手之_从零开始》)

1)新建非sbt scala项目,为 Scala sdk选择scala的本机安装目录

2)在Project Structure - Libraries中导入spark的jar包(spark安装目录下的jars文件夹)

3)代码完成后,Project Structure -Artifacts中,添加 jar - from modules with dependency,选择对应的module和main class。把生成的artifacts的name由 xxx:jar 改成xxxJar,把outputlayout中scala和spark相关的依赖都移除(因为每台机器都安装有scala和spark,所以不需要输出scala和spark相关的依赖包)

4)点击 Build -Build Artifacts,生成jar包(第一次是build,后面可以使用rebuild生成jar)

5)提交任务到集群(standalone模式)

spark-submit --master spark://pmaster:7077 --class testy.MyEntry /usr/mywork/project/scala/NonSBTProject/out/artifacts/NonSBTProjectJar/NonSBTProject.jar hdfs://pmaster:9000/movie/ml-100k/u.user hdfs://pmaster:9000/movie/result

注:①pmaster是集群master机器的hostname;

       ②testy.MyEntry 是所要运行的程序的scala文件全名,包括包名;

       ③hdfs://pmaster:9000/movie/ml-100k/u.user是输入文件的路径;hdfs://pmaster:9000/movie/result是输出文件的路径(这个路径在程序执行的时候必须是空的)


参考书中说在 Project Structure - Modules - Sources中,在src目录下新建文件夹并关联为Sources。实际上不需要这么做,也不能这么做,关联之后会导致错误:入口类(对象)名 is already defined...



这篇关于使用idea sbt运行spark程序的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/203163

相关文章

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互

Python中注释使用方法举例详解

《Python中注释使用方法举例详解》在Python编程语言中注释是必不可少的一部分,它有助于提高代码的可读性和维护性,:本文主要介绍Python中注释使用方法的相关资料,需要的朋友可以参考下... 目录一、前言二、什么是注释?示例:三、单行注释语法:以 China编程# 开头,后面的内容为注释内容示例:示例:四

Go语言数据库编程GORM 的基本使用详解

《Go语言数据库编程GORM的基本使用详解》GORM是Go语言流行的ORM框架,封装database/sql,支持自动迁移、关联、事务等,提供CRUD、条件查询、钩子函数、日志等功能,简化数据库操作... 目录一、安装与初始化1. 安装 GORM 及数据库驱动2. 建立数据库连接二、定义模型结构体三、自动迁

ModelMapper基本使用和常见场景示例详解

《ModelMapper基本使用和常见场景示例详解》ModelMapper是Java对象映射库,支持自动映射、自定义规则、集合转换及高级配置(如匹配策略、转换器),可集成SpringBoot,减少样板... 目录1. 添加依赖2. 基本用法示例:简单对象映射3. 自定义映射规则4. 集合映射5. 高级配置匹

Spring 框架之Springfox使用详解

《Spring框架之Springfox使用详解》Springfox是Spring框架的API文档工具,集成Swagger规范,自动生成文档并支持多语言/版本,模块化设计便于扩展,但存在版本兼容性、性... 目录核心功能工作原理模块化设计使用示例注意事项优缺点优点缺点总结适用场景建议总结Springfox 是

嵌入式数据库SQLite 3配置使用讲解

《嵌入式数据库SQLite3配置使用讲解》本文强调嵌入式项目中SQLite3数据库的重要性,因其零配置、轻量级、跨平台及事务处理特性,可保障数据溯源与责任明确,详细讲解安装配置、基础语法及SQLit... 目录0、惨痛教训1、SQLite3环境配置(1)、下载安装SQLite库(2)、解压下载的文件(3)、

使用Python绘制3D堆叠条形图全解析

《使用Python绘制3D堆叠条形图全解析》在数据可视化的工具箱里,3D图表总能带来眼前一亮的效果,本文就来和大家聊聊如何使用Python实现绘制3D堆叠条形图,感兴趣的小伙伴可以了解下... 目录为什么选择 3D 堆叠条形图代码实现:从数据到 3D 世界的搭建核心代码逐行解析细节优化应用场景:3D 堆叠图

Springboot如何正确使用AOP问题

《Springboot如何正确使用AOP问题》:本文主要介绍Springboot如何正确使用AOP问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录​一、AOP概念二、切点表达式​execution表达式案例三、AOP通知四、springboot中使用AOP导出

Navicat数据表的数据添加,删除及使用sql完成数据的添加过程

《Navicat数据表的数据添加,删除及使用sql完成数据的添加过程》:本文主要介绍Navicat数据表的数据添加,删除及使用sql完成数据的添加过程,具有很好的参考价值,希望对大家有所帮助,如有... 目录Navicat数据表数据添加,删除及使用sql完成数据添加选中操作的表则出现如下界面,查看左下角从左

IDEA Maven提示:未解析的依赖项的问题及解决

《IDEAMaven提示:未解析的依赖项的问题及解决》:本文主要介绍IDEAMaven提示:未解析的依赖项的问题及解决,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝... 目录IDEA Maven提示:未解析的依编程赖项例如总结IDEA Maven提示:未解析的依赖项例如