本文主要是介绍spark_windows_sasl_gss_initiate_failed,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
本地Windows 环境 连接cdh 6.3.2 hive2.1.1, 集群hadoop 版本3.0.0-cdh6.3.2
本地windows hadoop 版本2.7.7
出现如上错误。
尝试解决办法:
之前cdh hadoop版本为2.7的时候,windows远程连接是正常的。
排查日志(主要是cloudera manager namenode日志)发现,是因为hadoop 版本升级导致的,之前hadoop版本是2.7,中间有人升级到了hadoop3.0.
namenode中的提示日志如下:
这中间尝试了很多方法,发现都没什么作用。
方式一:
结果:无效
途径:切换JDK版本
方式二:
结果:无效
途径:jdk 权限,jre增加 security相关的包
。。。。。。。。。。。。。。。。。。。。。。
。。。。。。。。。。。。。。。。。。。。。。
方法五:
Stackoverflow 产生一定思路
最终解决方法
切换另一个版本的cdh集群,版本为5.16.2, hadoop2.6.0, hive1.1.0
拷贝krb5.con, keytab、principal到本地,本地Windows 远程连接后,出现了另外一个问题,
KrbException: Message stream modified (41)
参考,删除 krb5.conf 配置文件里的 renew_lifetime = xxx
配置解决
这篇关于spark_windows_sasl_gss_initiate_failed的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!