本文主要是介绍Spark作业一直处于ACCEPTED状态,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
原因1:集群处于不健康状态
打开yarn监控页面,查看nodes 状态
如果Unhealthy Nodes列不为0,说明有的节点不健康,可以点进去查看详情,处理完并且集群处于健康状态后可尝试再次提交作业。
原因2:作业资源分配太小
可增大conf yarn.nodemanager.resource.memory-mb、executor-memory参数值以提高内存分配
这篇关于Spark作业一直处于ACCEPTED状态的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!