本文主要是介绍[spark]解决beeline连接thrift-server加载数据权限问题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1.如果期望spark的表存放到hive的hdfs中需要在环境变量及conf/spark-env.sh中配置
HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
2.如果期望用beeline连接thrift-server时不报权限错误
需要在环境变量及conf/spark-env.sh中配置
HADOOP_USER_NAME=有hdfs权限的用户名
并且需要重启thrift-server生效
这篇关于[spark]解决beeline连接thrift-server加载数据权限问题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!