本文主要是介绍hive cbo优化引起的bug,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
-
hive.stats.fetch.column.stats导致reduce个数划分太小
有一个任务,在混部集群默认开启,导致任务reduce个数太小,只启了2个reducetask,而maptask中读取的数据又很大,使得大量数据都写到这2个reduce task中,任务最终失败,在关闭这个参数后,可以启动1100个reducetask。
怎么发现这个问题的:
对比执行计划,在开启这个参数后,hive 认为只会读取50000多行数据,而实际上是几十亿
这篇关于hive cbo优化引起的bug的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!