hadoop,hbase,hive安装全记录

2024-02-03 10:08

本文主要是介绍hadoop,hbase,hive安装全记录,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

操作系统:CentOS 5.5
Hadoop:hadoop-0.20.203.0
jdk1.7.0_01
namenode主机名:master,namenode的IP:10.10.102.15
datanode主机名:slave1,datanode的IP:10.10.106.8
datanode主机名:slave2,datanode的IP:10.10.106.9
一、hadoop 安装
1、建立用户
useradd hadoop
passwd hadoop
2. 安装 JDK * 
先查看是否安装了java,并确定其版本,如果没有安装
rpm -i jdk-7u1-linux-x64.rpm
默认安装在/usr/java/下
3.设置环境变量 * 
编辑 /etc/profile 文件,设置 JAVA_HOME 环境变量以及类路径: 
export JAVA_HOME=/usr/java/jdk1.7.0_01(在8中用的是jdk1.6.0_25)
export JRE_HOME=/usr/java/jdk1.7.0_01/jre
export CLASSPASH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
4. 添加 hosts 的映射 * 
编辑 /etc/hosts 文件:
10.10.102.15 master 
10.10.106.8 slave1 
10.10.106.8 slave2
5、配置SSH
这里暂时只是设置了master连接slave不需密码。slave连接master没设置。
[hadoop@master:~]$ssh-keygen  -t  rsa #在hadoop的根目录下,创建密钥对,放在.ssh文件夹中
[hadoop@master:.ssh]$cp id_rsa.pub authorized_keys  #进入.ssh,将公钥加入到authorized_keys
[hadoop@slave1:~]$mkdir .ssh #在slave1、slave2中建立目录
[hadoop@slave2:~]$mkdir .ssh
[hadoop@master:.ssh]$scp authorized_keys slave1:/home/hadoop/.ssh/ #将master的公钥给另外两者
[hadoop@master:.ssh]$scp authorized_keys slave2:/home/hadoop/.ssh/
Ssh 权限配置问题:(任何一点权限的配置错误有血的教训~~)
用户目录权限为 755 或者 700就是不能是77x
.ssh目录权限必须为755
rsa_id.pub 及authorized_keys权限必须为644
rsa_id权限必须为600
最后,在master中测试:ssh localhost date、ssh slave1 date、ssh slave2 date。不需要密码,则成功。
6、安装hadoop。
以master为例,slave完全相同
(1)[hadoop@master:~]$tar xzvf hadoop-0.20.203.0rc1.tar.gz  #解压
(2)添加环境变量
export HADOOP_HOME=/home/hadoop/hadoop-0.20.203.0
export PATH=$PATH:$HADOOP_HOME/bin
(3)创建hadoop本地临时文件夹
(如果设置临时文件夹,而是用默认/tmp/下,那因为其空间小,hdfs放几个大文件就报错)
[hadoop@master:~]mkdir tmp  
注意:tmp一定要有hadoop的读写权限,否则datanode 会 format失败。依然是血的教训啊~
(4)
修改masters: 
master 
修改slaves: 
slave1 
slave2

(5)配置hadoop
hadoop/conf/core-site.xml
<configuration>
     <property> 
            <name>hadoop.tmp.dir</name> 
            <value>/home/hadoop/tmp/</value> 
     </property>

<!-- file system properties -->
      <property>
            <name>fs.default.name</name>
            <value>hdfs://master:54310</value>
      </property>
      <property> 
            <name>io.sort.mb</name>  #指定了排序使用的内存,大的内存可以加快 job 的处理速度。
            <value>1024</value>  
      </property>

</configuration>
hadoop/conf/mapred-site.xml
<configuration>
      <property>
            <name>mapred.job.tracker</name>
            <value>master:54311</value>
      </property>
      <property> 
            <name>mapred.map.child.java.opts</name>  #指定 map/reduce 任务使用的最大堆内存。较小的内存可能导致程序抛出

OutOfMemoryException 。
            <value>-Xmx4096m</value> 
      </property> 
      <property> 
            <name>mapred.reduce.child.java.opts</name> 
            <value>-Xmx4096m</value> 
      </property> 
</configuration>
hadoop/conf/hdfs-site.xml
<configuration>
      <property>
            <name>dfs.replication</name>
            <value>3</value>
      </property>
</configuration>

(6)将master配置好的hadoop直接复制到slave1、slave2中即可。
7、启动hadoop
[hadoop@master:hadoop-0.20.203.0]$cd bin
[hadoop@master:bin]$hadoop namenode format  #格式化namenode的时候最好将节点的tmp目录清空、删除logs目录中的文件。尤其是tmp一定要情况。

否侧上传的错误会导致这次的datanode启动失败。详见错误目录:
[hadoop@master:bin]$start-all.sh
[hadoop@master:bin]$jps
浏览器中输入
http://master:54310 查看
http://master:50070 --web UI for HDFS name node(s)
http://master:50030 --web UI for MapReduce job tracker(s)
http://slave1:50060   --web UI for task tracker(s)


错误目录:
1、could only be replicated to 0 nodes, instead of 1 
format之后之前的datanode会有一个ID,这个ID没有删除,所以会拒绝当前Namenode链接和分配。所以需要删除 原来的datanode中的hdfs目录。

二、hive安装 ,并使用mysql数据库为元数据库
使用hive-0.8.0
安装hive前,事先安装mysql用于保存元数据,安装ant用于启用HWI
1、在namenode安装hive。下载并解压hive文件后,进入hive/bin/下,配置hive-config.sh文件:
export HADOOP_HOME=/home/hadoop/hadoop-0.20.203.0
export PATH=.:$HADOOP_HOME/bin:$PATH
export HIVE_HOME=/home/hadoop/hive-0.8.0
export PATH=$HIVE_HOME/bin:$PATH
export JAVA_HOME=/usr/java/jdk1.7.0_01
export JRE_HOME=/usr/java/jdk1.7.0_01/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH  
export PATH=.:$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
 
2、将hive加入到环境变量中:
export HIVE_HOME=/home/hadoop/hive-0.8.0
3、在mysql中创建hadoop的用户,密码也为hadoop,并创建元数据库:
mysql  
mysql> CREATE USER 
'hadoop'@'master' IDENTIFIED BY 'hadoop'; 
mysql> GRANT ALL PRIVILEGES ON *.* TO 
'hadoop'@'master' WITH GRANT OPTION; 
mysql> exit

4、下载文件mysql-connector-java-5.1.15-bin.jar,保存到bin文件目录下。
否则出现错误:
hive> show tables;
FAILED: Error in metadata: javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
NestedThrowables:
java.lang.reflect.InvocationTargetException
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask
5、在hive/conf/文件夹中,新建hive-site.xml文件,并复制进hive-default.xml.template的全部内容,作以下修改
(使用mysql为元数据库)
<property>  
  <name>hive.metastore.local</name>  
  <value>true</value>  
</property>
<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <!--<value>jdbc:derby:;databaseName=metastore_db;create=true</value>-->
  <value>jdbc:mysql://master:3306/metastore</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hadoop</value>
  <description>username to use against metastore database</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hadoop</value>
  <description>password to use against metastore database</description>
</property>
6、在hdfs中创建几个目录
$HADOOP_HOME/bin/hadoop fs -mkdir /tmp
$HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse
$HADOOP_HOME/bin/hadoop fs -chmod g+w /tmp
$HADOOP_HOME/bin/hadoop fs -chmod g+w /user/hive/warehouse
7、启动hive
启动hive:$HIVE_HOME/bin/hive
8、启动hwi界面
export ANT_LIB=/opt/ant/lib
bin/hive --service hwi
bin/hive --service hwi --help
9、在hive命令行模式下,使用show tables;测试mysql连接是否正确。
三、hbase安装
使用hbase-0.90.5
1、在现在master中安装hbase。

下载并解压hbase文件后,进入hbase/conf下,配置hbse-env.sh文件:
export JAVA_HOME=/usr/java/jdk1.7.0_01
export HBASE_MANAGES_ZK=true $使用hbase自带的zookeeper
2、在regionservers中加入region名称:
slave1
slave2
3、修改hbase-site.xml文件:
<configuration>
<property>
  <name>hbase.rootdir</name>
  <value>hdfs://master:54310/hbase</value>  #注意主机名和端口号要与hadoop的dfs name的对应
</property>
<property>
  <name>hbase.cluster.distributed</name>
  <value>true</value>
</property>
<property>
       <name>zookeeper.session.timeout</name>
       <value>60000</value>
  </property>
<property>
  <name>hbase.zookeeper.quorum</name>
  <value>master,slave1,slave2</value>
</property>
</configuration>

4、将hbase文件夹完全复制到slave1和slave2相同目录下。
5、启动hbase:

#start-hbase.sh
#jps 
后出现两项:Hmaster和HQuorumPeer 表明成功
#./hbase shell 进入shell
http://master:60010进入页面

错误目录:
1、zookeeper问题:
ZooKeeper Client Connection Errors

11/07/05 11:26:41 WARN zookeeper.ClientCnxn: Session 0x0 for server null,
unexpected error, closing socket connection and attempting reconnect
java.net.ConnectException: Connection refused: no further information
        at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
        at sun.nio.ch.SocketChannelImpl.finishConnect(Unknown Source)
        at org.apache.zookeeper.ClientCnxn$SendThread.run(ClientCnxn.java:1078)
11/07/05 11:26:43 INFO zookeeper.ClientCnxn: Opening socket connection to
server localhost/127.0.0.1:2181
11/07/05 11:26:44 WARN zookeeper.ClientCnxn: Session 0x0 for server null,
unexpected error, closing socket connection and attempting reconnect
java.net.ConnectException: Connection refused: no further information
        at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
        at sun.nio.ch.SocketChannelImpl.finishConnect(Unknown Source)
        at org.apache.zookeeper.ClientCnxn$SendThread.run(ClientCnxn.java:1078)
11/07/05 11:26:45 INFO zookeeper.ClientCnxn: Opening socket connection to
server localhost/127.0.0.1:2181
原因:zppkeeper未启动,或无法连接,从查看各节点zookeeper启动状态、端口占用、防火墙等方面查看原因。
2、hmaster无法启动问题:
原因:java.io.IOException: Call to <host:port> failed on local exception
网上大部分说事使用hadoop 的21版本问题,但我用的是20的。
后来把hbase_home/lib(启动的时候会加载里面所有jar) 下的hadoop-core-0.20-append-r1056497.jar rm 掉,再cp hadoop_home下的hadoop-core-

0.20.203.0.jar到lib中,
还出现:
FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown.
java.lang.NoClassDefFoundError: org/apache/commons/configuration/Configuration
现在NoClassDefFoundError,缺少 org/apache/commons/configuration/Configuration 果断给他加一个commons-configuration包试试,从

hadoop_home/lib下面cp一个commons-configuration-1.6.jar到hbase_home/lib下,
成功,但界面上出现不支持append的提示(因为用hadoop-core-0.20.203.0.jar替换了hadoop-core-0.20-append-r1056497.jar)。不知道以后有没有什么影响。

四、使用hive访问hbase中数据
1、解决版本问题

先将hbase中的hbase-0.90.5.jar文件替换掉hive-0.8.0/bin/文件目录下的rhbase-0.89.0-SNAPSHOT.jar,把hbase-0.90.5/conf/hbase-site.xml复

制到hive-0.8.0/conf/文件目录下。同时注意hive/bin目录下的zookeeper.jar与hbase/bin中的zookeeper.jar版本是否一致,如果不一致,要使用hbase/bin中的zookeeper.jar替换掉hive/bin目录下的zookeeper.jar
否则出现错误:
FAILED: Error in metadata: MetaException(message:org.apache.hadoop.hbase.MasterNotRunningException: master:60000
2、在hive-site中添加内容:
<property>
   <name>hbase.zookeeper.quorum</name>
   <value>master,slave1,slave2</value>         #2个datanode ,使用HBASE自己维护的ZOOKEEPER
</property>
<property>
  <name>hive.aux.jars.path</name>
  <value>file:///home/hadoop/hive-0.8.0/lib/hive-hbase-handler-0.8.0.jar,file:///home/hadoop/hive-0.8.0/lib/zookeeper-

3.3.1.jar,file:///home/hadoop/hive-0.8.0/lib/hbase-0.90.5.jar </value>      
</property>

这篇关于hadoop,hbase,hive安装全记录的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/673810

相关文章

Jsoncpp的安装与使用方式

《Jsoncpp的安装与使用方式》JsonCpp是一个用于解析和生成JSON数据的C++库,它支持解析JSON文件或字符串到C++对象,以及将C++对象序列化回JSON格式,安装JsonCpp可以通过... 目录安装jsoncppJsoncpp的使用Value类构造函数检测保存的数据类型提取数据对json数

mac安装redis全过程

《mac安装redis全过程》文章内容主要介绍了如何从官网下载指定版本的Redis,以及如何在自定义目录下安装和启动Redis,还提到了如何修改Redis的密码和配置文件,以及使用RedisInsig... 目录MAC安装Redis安装启动redis 配置redis 常用命令总结mac安装redis官网下

如何安装 Ubuntu 24.04 LTS 桌面版或服务器? Ubuntu安装指南

《如何安装Ubuntu24.04LTS桌面版或服务器?Ubuntu安装指南》对于我们程序员来说,有一个好用的操作系统、好的编程环境也是很重要,如何安装Ubuntu24.04LTS桌面... Ubuntu 24.04 LTS,代号 Noble NumBAT,于 2024 年 4 月 25 日正式发布,引入了众

如何安装HWE内核? Ubuntu安装hwe内核解决硬件太新的问题

《如何安装HWE内核?Ubuntu安装hwe内核解决硬件太新的问题》今天的主角就是hwe内核(hardwareenablementkernel),一般安装的Ubuntu都是初始内核,不能很好地支... 对于追求系统稳定性,又想充分利用最新硬件特性的 Ubuntu 用户来说,HWEXBQgUbdlna(Har

python中poetry安装依赖

《python中poetry安装依赖》本文主要介绍了Poetry工具及其在Python项目中的安装和使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随... 目录前言1. 为什么pip install poetry 会造成依赖冲突1.1 全局环境依赖混淆:1

windows端python版本管理工具pyenv-win安装使用

《windows端python版本管理工具pyenv-win安装使用》:本文主要介绍如何通过git方式下载和配置pyenv-win,包括下载、克隆仓库、配置环境变量等步骤,同时还详细介绍了如何使用... 目录pyenv-win 下载配置环境变量使用 pyenv-win 管理 python 版本一、安装 和

Linux下MySQL8.0.26安装教程

《Linux下MySQL8.0.26安装教程》文章详细介绍了如何在Linux系统上安装和配置MySQL,包括下载、解压、安装依赖、启动服务、获取默认密码、设置密码、支持远程登录以及创建表,感兴趣的朋友... 目录1.找到官网下载位置1.访问mysql存档2.下载社区版3.百度网盘中2.linux安装配置1.

Kibana的安装和配置全过程

《Kibana的安装和配置全过程》Kibana是一个开源的数据分析和可视化平台,它与Elasticsearch紧密集成,提供了一个直观的Web界面,使您可以快速地搜索、分析和可视化数据,在本文中,我们... 目录Kibana的安装和配置1.安装Java运行环境2.下载Kibana3.解压缩Kibana4.配

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7