本文主要是介绍spark集群在执行任务出现nitial job has not accepted any resources; check your cluster UI to ensure that worker,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1 spark集群在执行任务时出现了:
2 原因:这是因为默认分配的内存过大(1024M)
3 解决方法:
在conf/spark-env.sh下添加export SPARK_WORKER_MEMORY=512和export SPARK_DAEMON_MEMORY=256
这篇关于spark集群在执行任务出现nitial job has not accepted any resources; check your cluster UI to ensure that worker的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!