本文主要是介绍job has not accepted any resources; check your cluster UI to ensure that workers are registered and,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Spark 执行 spark-submit 提交jar包执行
[root@hadoop0 spark-2.1.0-bin-hadoop2.7]# bin/spark-submit --master spark://hadoop0:7077 --class org.apache.spark.examples.SparkPi examples/jars/spark-examples_2.11-2.1.0.jar 200
时报错如下:
报错: job没有接受任何资源;检查集群UI,确保workers已注册并拥有足够的资源。
我检查了集群机器的磁盘空间发现没问题,也去UI界面看了节点状态没问题:
但发现spark-shell开启着,于是本着试试看的态度,将spark-shell关闭后再执行spark-submit命令,发现可以执行了:
这篇关于job has not accepted any resources; check your cluster UI to ensure that workers are registered and的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!