1.7.1 大数据-HUE可视化软件安装

2024-03-16 13:08

本文主要是介绍1.7.1 大数据-HUE可视化软件安装,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

版本

hue-3.9.0-cdh5.5.0

下载解压

http://archive.cloudera.com/cdh5/cdh/5/hue-3.9.0-cdh5.5.0.tar.gz

tar -zxf hue-3.9.0-cdh5.5.0.tar.gz -C /opt/modules

编译

  1. 联网虚拟机里面设置为自动连接
  2. 切换为root用户
  3. 安装相关依赖包
yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi gcc gcc-c++ krb5-devel libtidy libxml2-devel libxslt-devel openldap-devel python-devel sqlite-devel openssl-devel mysql-devel gmp-devel

根目录编译

make app

切换kfk用户并授权

sudo chmod -R 777 hue-3.9.0-cdh5.5.0/

配置

资料http://archive.cloudera.com/cdh5/cdh/5/hue-3.9.0-cdh5.5.0/manual.html

/opt/modules/hue-3.9.0-cdh5.5.0/desktop/conf/hue.ini

  secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW5o# Webserver listens on this address and porthttp_host=bigdata-pro03.kfk.comhttp_port=8888# Time zone nametime_zone=Asia/Shanghai

启动服务

[kfk@bigdata-pro03 hue-3.9.0-cdh5.5.0]$ ./build/env/bin/supervisor 

登录

http://bigdata-pro03.kfk.com:8888/
kfk kfk

集成HDFS

/opt/modules/hue-3.9.0-cdh5.5.0/desktop/conf/hue.ini

fs_defaultfs=hdfs://ns
webhdfs_url=http://bigdata-pro01.kfk.com:50070/webhdfs/v1
hadoop_conf_dir=/opt/modules/hadoop-2.5.0/etc/hadoop
hadoop_bin=/opt/modules/hadoop-2.5.0/bin
hadoop_hdfs_home=/opt/modules/hadoop-2.5.0

三台配置
hadoop-2.5.0/etc/hadoop/core-site.xml 不配报没权限
Note: you are a Hue admin but not a HDFS superuser, "hdfs" or part of HDFS supergroup, "supergroup".
default_hdfs_superuser=kfk

<!--hue-->
<property><name>hadoop.proxyuser.hue.hosts</name><value>*</value>
</property>
<property><name>hadoop.proxyuser.hue.groups</name><value>*</value>
</property>

重启服务

[kfk@bigdata-pro01 hadoop-2.5.0]$ sbin/stop-all.sh
[kfk@bigdata-pro01 hadoop-2.5.0]$ sbin/start-all.sh[kfk@bigdata-pro03 hue-3.9.0-cdh5.5.0]$ ./build/env/bin/supervisor

集成报错Address already in use 解决

[kfk@bigdata-pro03 lib]$ ps -aPID TTY          TIME CMD
12991 pts/0    00:00:00 vim
18707 pts/0    00:03:00 java
18851 pts/0    00:00:00 bash
18864 pts/0    00:00:04 java
22839 pts/2    00:00:00 su
22844 pts/2    00:00:00 bash
27001 pts/0    00:00:00 supervisor
27007 pts/0    00:00:10 hue
27864 pts/1    00:00:00 vim
27964 pts/3    00:00:05 java
28058 pts/1    00:00:00 ps
杀掉进程 kill -9 27001

方案二 反复启动没杀好 用这个找hue supervisor

[kfk@bigdata-pro03 hue-3.9.0-cdh5.5.0]$ lsof -i

问题:StandbyException: Operation category READ is not supported in state standby

重启导致 namenode重置了 修改访问网址

/opt/modules/hue-3.9.0-cdh5.5.0/desktop/conf/hue.ini
webhdfs_url=http://bigdata-pro02.kfk.com:50070/webhdfs/v1

集成yarn

      resourcemanager_host=rs# The port where the ResourceManager IPC listens onresourcemanager_port=8032# Whether to submit jobs to this clustersubmit_to=True# Resource Manager logical name (required for HA)## logical_name=# Change this if your YARN cluster is Kerberos-secured## security_enabled=false# URL of the ResourceManager APIresourcemanager_api_url=http://bigdata-pro02.kfk.com:8088# URL of the ProxyServer APIproxy_api_url=http://bigdata-pro02.kfk.com:8088# URL of the HistoryServer APIhistory_server_api_url=http://bigdata-pro02.kfk.com:19888

集成hive

[beeswax]# Host where HiveServer2 is running.# If Kerberos security is enabled, use fully-qualified domain name (FQDN).## hive_server_host=localhosthive_server_host=bigdata-pro03.kfk.com# Port where HiveServer2 Thrift server runs on.hive_server_port=10000# Hive configuration directory, where hive-site.xml is locatedhive_conf_dir=/opt/modules/hive-0.13.1-bin/conf

启动 nohup bin/hiveserver2 &

HiveServer2(HS2)是一个服务端接口,使远程客户端可以执行对Hive的查询并返回结果。目前基于Thrift RPC的实现是HiveServer的改进版本,并支持多客户端并发和身份验证

<property><name>hive.server2.thrift.port</name><value>10000</value>
</property><property><name>hive.server2.thrift.bind.host</name><value>bigdata-pro03.kfk.com</value></property>

hadoop core-site.xml

<property>     <name>hadoop.proxyuser.kfk.hosts</name>     <value>*</value>
</property> 
<property>     <name>hadoop.proxyuser.kfk.groups</name>    <value>*</value> 
</property>

集成mysql

  [[[mysql]]]# Name to show in the UI.nice_name="MySQL-Sky"# For MySQL and PostgreSQL, name is the name of the database.# For Oracle, Name is instance of the Oracle server. For express edition# this is 'xe' by default.name=metastore# Database backend to use. This can be:# 1. mysql# 2. postgresql# 3. oracleengine=mysql# IP or hostname of the database to connect to.host=bigdata-pro01.kfk.com# Port the database server is listening to. Defaults are:# 1. MySQL: 3306# 2. PostgreSQL: 5432# 3. Oracle Express Edition: 1521## port=3306# Username to authenticate with when connecting to the database.user=root# Password matching the username to authenticate with when# connecting to the database.password=123456

集成HBASE

启动thrift服务

bin/hbase-daemon.sh  start  thrift
[hbase]# Comma-separated list of HBase Thrift servers for clusters in the format of '(name|host:port)'.# Use full hostname with security.# If using Kerberos we assume GSSAPI SASL, not PLAIN.hbase_clusters=(Cluster|bigdata-pro01.kfk.com:9090)# HBase configuration directory, where hbase-site.xml is located.hbase_conf_dir=/opt/modules/hbase-0.98.6-cdh5.3.0/conf

其他

下面版本=hue4.2 HIVE查询可联想 有进度条 另一个工具
tar -zxf hue-3.9.0-cdh5.12.1.tar.gz 联想 进度条

这篇关于1.7.1 大数据-HUE可视化软件安装的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/815586

相关文章

Python中win32包的安装及常见用途介绍

《Python中win32包的安装及常见用途介绍》在Windows环境下,PythonWin32模块通常随Python安装包一起安装,:本文主要介绍Python中win32包的安装及常见用途的相关... 目录前言主要组件安装方法常见用途1. 操作Windows注册表2. 操作Windows服务3. 窗口操作

MyBatisPlus如何优化千万级数据的CRUD

《MyBatisPlus如何优化千万级数据的CRUD》最近负责的一个项目,数据库表量级破千万,每次执行CRUD都像走钢丝,稍有不慎就引起数据库报警,本文就结合这个项目的实战经验,聊聊MyBatisPl... 目录背景一、MyBATis Plus 简介二、千万级数据的挑战三、优化 CRUD 的关键策略1. 查

python实现对数据公钥加密与私钥解密

《python实现对数据公钥加密与私钥解密》这篇文章主要为大家详细介绍了如何使用python实现对数据公钥加密与私钥解密,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录公钥私钥的生成使用公钥加密使用私钥解密公钥私钥的生成这一部分,使用python生成公钥与私钥,然后保存在两个文

mysql中的数据目录用法及说明

《mysql中的数据目录用法及说明》:本文主要介绍mysql中的数据目录用法及说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、版本3、数据目录4、总结1、背景安装mysql之后,在安装目录下会有一个data目录,我们创建的数据库、创建的表、插入的

Navicat数据表的数据添加,删除及使用sql完成数据的添加过程

《Navicat数据表的数据添加,删除及使用sql完成数据的添加过程》:本文主要介绍Navicat数据表的数据添加,删除及使用sql完成数据的添加过程,具有很好的参考价值,希望对大家有所帮助,如有... 目录Navicat数据表数据添加,删除及使用sql完成数据添加选中操作的表则出现如下界面,查看左下角从左

SpringBoot中4种数据水平分片策略

《SpringBoot中4种数据水平分片策略》数据水平分片作为一种水平扩展策略,通过将数据分散到多个物理节点上,有效解决了存储容量和性能瓶颈问题,下面小编就来和大家分享4种数据分片策略吧... 目录一、前言二、哈希分片2.1 原理2.2 SpringBoot实现2.3 优缺点分析2.4 适用场景三、范围分片

Redis分片集群、数据读写规则问题小结

《Redis分片集群、数据读写规则问题小结》本文介绍了Redis分片集群的原理,通过数据分片和哈希槽机制解决单机内存限制与写瓶颈问题,实现分布式存储和高并发处理,但存在通信开销大、维护复杂及对事务支持... 目录一、分片集群解android决的问题二、分片集群图解 分片集群特征如何解决的上述问题?(与哨兵模

浅析如何保证MySQL与Redis数据一致性

《浅析如何保证MySQL与Redis数据一致性》在互联网应用中,MySQL作为持久化存储引擎,Redis作为高性能缓存层,两者的组合能有效提升系统性能,下面我们来看看如何保证两者的数据一致性吧... 目录一、数据不一致性的根源1.1 典型不一致场景1.2 关键矛盾点二、一致性保障策略2.1 基础策略:更新数

Qt 设置软件版本信息的实现

《Qt设置软件版本信息的实现》本文介绍了Qt项目中设置版本信息的三种常用方法,包括.pro文件和version.rc配置、CMakeLists.txt与version.h.in结合,具有一定的参考... 目录在运行程序期间设置版本信息可以参考VS在 QT 中设置软件版本信息的几种方法方法一:通过 .pro

Oracle 数据库数据操作如何精通 INSERT, UPDATE, DELETE

《Oracle数据库数据操作如何精通INSERT,UPDATE,DELETE》在Oracle数据库中,对表内数据进行增加、修改和删除操作是通过数据操作语言来完成的,下面给大家介绍Oracle数... 目录思维导图一、插入数据 (INSERT)1.1 插入单行数据,指定所有列的值语法:1.2 插入单行数据,指