使用idea sbt运行spark程序

2023-10-13 12:18
文章标签 使用 程序 idea 运行 spark sbt

本文主要是介绍使用idea sbt运行spark程序,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

scala-sbt 项目(参考 http://blog.sina.com.cn/s/blog_5742944d0102vfwo.html

2.待sbt及相关依赖下载完成后,配置spark依赖

spark 2.0.0后,目录下没有lib文件夹,也找不到assembly jar包,实际上该jar已经分拆成了spark安装目录下的jars文件夹下的各jar包。导入依赖如下

打开idea - file - project structure - libraries,点击“+” - java,选择jars文件夹,“确定”

3.配置application 和 scala consle

点击 Edit Configurations,在Defaults中选择application 和 scala consle,按“+”添加

4.如果有需要,配置启动参数

点击Edit Configurations,配置configuration的VM options 和 Program arguments,分别设置

1)单机模式运行 

VM options = -Dspark.master=local

Program arguments = 文件在本地机器上的绝对路径

2)standalone 集群模式运行 

VM options = -Dspark.master=spark://master:7077 (master应该替换为所需要的集群主机名)

Program arguments = 文件在本地机器上的绝对路径(或者hdfs://... 或者其他路径)

按照如上参数直接在idea启动spark任务,会出现异常

org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 4.0 failed 4 times, most recent failure: Lost task 0.3 in stage 4.0 (TID 77, 192.168.1.194): java.lang.ClassCastException: cannot assign instance of scala.collection.immutable.List$SerializationProxy to field org.apache.spark.rdd.RDD.org$apache$spark$rdd$RDD$$dependencies_ of type scala.collection.Seq in instance of org.apache.spark.rdd.MapPartitionsRDD  (见 https://issues.apache.org/jira/browse/SPARK-9219)

因此,改用submit的方式提交

①点击 File - project structure -artifacts - jar - from modules with dependency,选择对应的module和main class。

②设置VM options = -Dspark.master=spark://master:7077

!!!注意:此模式下,sc.textFile(path)实际上是 hdfs://master:7077/path

③点击 build - build artifacts,生成jar包(位于自己在idea中指定的路径下,本文在项目/out/..目录下)

④zip -d /usr/mywork/project/scala/FirstSpark/out/artifacts/firstspark_jar/firstspark.jar META-INF/*.RSA META-INF/*.DSA META-INF/*.SF

(  /usr/mywork/project/scala/FirstSpark/out/artifacts/firstspark_jar/firstspark.jar是生成的jar路径 

(参考 http://blog.csdn.net/dai451954706/article/details/50086295,如果不加入这一步,会出现错误:Exception in thread "main" java.lang.SecurityException: Invalid signature file digest for Manifest main attributes  

⑤以standalone模式提交(还有其它模式, 参见 http://blog.csdn.net/kinger0/article/details/46562473)

./spark-submit  --class WordCount --master spark://pmaster:7077 /usr/mywork/project/scala/FirstSpark/out/artifacts/firstspark_jar/firstspark.jar

WordCount 代表要执行的任务的入口类;

spark://pmaster:7077 代表所提交的集群的master机器;

/usr/mywork/project/scala/FirstSpark/out/artifacts/firstspark_jar/firstspark.jar 代表所要提交的jar包




非sbt scala项目(参考 《Spark实战高手之_从零开始》)

1)新建非sbt scala项目,为 Scala sdk选择scala的本机安装目录

2)在Project Structure - Libraries中导入spark的jar包(spark安装目录下的jars文件夹)

3)代码完成后,Project Structure -Artifacts中,添加 jar - from modules with dependency,选择对应的module和main class。把生成的artifacts的name由 xxx:jar 改成xxxJar,把outputlayout中scala和spark相关的依赖都移除(因为每台机器都安装有scala和spark,所以不需要输出scala和spark相关的依赖包)

4)点击 Build -Build Artifacts,生成jar包(第一次是build,后面可以使用rebuild生成jar)

5)提交任务到集群(standalone模式)

spark-submit --master spark://pmaster:7077 --class testy.MyEntry /usr/mywork/project/scala/NonSBTProject/out/artifacts/NonSBTProjectJar/NonSBTProject.jar hdfs://pmaster:9000/movie/ml-100k/u.user hdfs://pmaster:9000/movie/result

注:①pmaster是集群master机器的hostname;

       ②testy.MyEntry 是所要运行的程序的scala文件全名,包括包名;

       ③hdfs://pmaster:9000/movie/ml-100k/u.user是输入文件的路径;hdfs://pmaster:9000/movie/result是输出文件的路径(这个路径在程序执行的时候必须是空的)


参考书中说在 Project Structure - Modules - Sources中,在src目录下新建文件夹并关联为Sources。实际上不需要这么做,也不能这么做,关联之后会导致错误:入口类(对象)名 is already defined...



这篇关于使用idea sbt运行spark程序的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/203163

相关文章

java图像识别工具类(ImageRecognitionUtils)使用实例详解

《java图像识别工具类(ImageRecognitionUtils)使用实例详解》:本文主要介绍如何在Java中使用OpenCV进行图像识别,包括图像加载、预处理、分类、人脸检测和特征提取等步骤... 目录前言1. 图像识别的背景与作用2. 设计目标3. 项目依赖4. 设计与实现 ImageRecogni

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Mysql虚拟列的使用场景

《Mysql虚拟列的使用场景》MySQL虚拟列是一种在查询时动态生成的特殊列,它不占用存储空间,可以提高查询效率和数据处理便利性,本文给大家介绍Mysql虚拟列的相关知识,感兴趣的朋友一起看看吧... 目录1. 介绍mysql虚拟列1.1 定义和作用1.2 虚拟列与普通列的区别2. MySQL虚拟列的类型2

使用MongoDB进行数据存储的操作流程

《使用MongoDB进行数据存储的操作流程》在现代应用开发中,数据存储是一个至关重要的部分,随着数据量的增大和复杂性的增加,传统的关系型数据库有时难以应对高并发和大数据量的处理需求,MongoDB作为... 目录什么是MongoDB?MongoDB的优势使用MongoDB进行数据存储1. 安装MongoDB

关于@MapperScan和@ComponentScan的使用问题

《关于@MapperScan和@ComponentScan的使用问题》文章介绍了在使用`@MapperScan`和`@ComponentScan`时可能会遇到的包扫描冲突问题,并提供了解决方法,同时,... 目录@MapperScan和@ComponentScan的使用问题报错如下原因解决办法课外拓展总结@

mysql数据库分区的使用

《mysql数据库分区的使用》MySQL分区技术通过将大表分割成多个较小片段,提高查询性能、管理效率和数据存储效率,本文就来介绍一下mysql数据库分区的使用,感兴趣的可以了解一下... 目录【一】分区的基本概念【1】物理存储与逻辑分割【2】查询性能提升【3】数据管理与维护【4】扩展性与并行处理【二】分区的

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

Linux使用fdisk进行磁盘的相关操作

《Linux使用fdisk进行磁盘的相关操作》fdisk命令是Linux中用于管理磁盘分区的强大文本实用程序,这篇文章主要为大家详细介绍了如何使用fdisk进行磁盘的相关操作,需要的可以了解下... 目录简介基本语法示例用法列出所有分区查看指定磁盘的区分管理指定的磁盘进入交互式模式创建一个新的分区删除一个存

C#使用HttpClient进行Post请求出现超时问题的解决及优化

《C#使用HttpClient进行Post请求出现超时问题的解决及优化》最近我的控制台程序发现有时候总是出现请求超时等问题,通常好几分钟最多只有3-4个请求,在使用apipost发现并发10个5分钟也... 目录优化结论单例HttpClient连接池耗尽和并发并发异步最终优化后优化结论我直接上优化结论吧,

SpringBoot使用Apache Tika检测敏感信息

《SpringBoot使用ApacheTika检测敏感信息》ApacheTika是一个功能强大的内容分析工具,它能够从多种文件格式中提取文本、元数据以及其他结构化信息,下面我们来看看如何使用Ap... 目录Tika 主要特性1. 多格式支持2. 自动文件类型检测3. 文本和元数据提取4. 支持 OCR(光学