本文主要是介绍遇到问题---hadoop----local-dirs are bad,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
遇到的问题
我们的hadoop集群在运作过程中部分节点报错local-dirs are bad
原因
hadoop集群硬盘目录默认的使用阈值是90%
空间不足,目录使用率超过阈值了90%了
解决方式
调整yarn的参数
yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage
把比例调高到98%
但是这种方式治标不治本,最好还是清理hadoop集群的空间,腾出硬盘空间。
https://discuss.pivotal.io/hc/en-us/articles/230700528-YARN-Alerts-NodeManager-is-unhealthy-local-dirs-are-bad
这篇关于遇到问题---hadoop----local-dirs are bad的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!