Hadoop2.8.0+Zookeeper3.4.8+Hbase1.2.6完全分布式配置

2024-06-02 14:18

本文主要是介绍Hadoop2.8.0+Zookeeper3.4.8+Hbase1.2.6完全分布式配置,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 准备环境

三台Ubuntu系统的电脑

同一局域网

Java1.8.0_121

Hadoop2.8.0

Zookeeper3.4.8

Hbase1.2.6

大家可以自行取官网下载各工具的最新版本.

  • Hadoop完全分布配置

  1. 安装JDK

解压java1.8.0_121.tar.gz到/opt/jvm下,编辑 vim /etc/profile文件,添加jdk环境变量:


source /etc/profile命令使配置生效

java -version命令查看jdk环境变量是否配置成功

      2.  配置所有机器的hostname和hosts

(1)三台机器均新建个hadoop用户用来专门进行hadoop大数据相关操作

(2)更改hostname,可以编辑 vim /etc/sysconfig/network    重启后生效。

(3)更改host,可以编辑 vim /etc/hosts,增加如下内容:
     192.168.1.8    bigdata1 
            192.168.1.7    bigdata2 
            192.168.1.10     bigdata3  (我这里把bigdata3作为master) 
         hosts可以和hostname不一致 ,这里为了好记就写一致了。

       3.  配置ssh免密登录

(1)输入命令,ssh-keygen -t rsa,生成key,一直按回车,
    就会在~/.ssh生成:authorized_keys   id_rsa.pub   id_rsa 三个文件,
    这里要说的是,为了各个机器之间的免登陆,在每一台机器上都要进行此操作。
(2)接下来,在bigdata3服务器,合并公钥到authorized_keys文件,
        进入/root/.ssh目录,输入以下命令
     cat id_rsa.pub>> authorized_keys    把bigdata3公钥合并到authorized_keys 中
     ssh hadoop@192.168.1.7 cat ~/.ssh/id_rsa.pub>> authorized_keys    
     ssh hadoop@192.168.1.8 cat ~/.ssh/id_rsa.pub>> authorized_keys    
     把bigdata1、bigdata2公钥合并到authorized_keys 中
            完成之后输入命令,把authorized_keys远程copy到bigdata1和bigdata2之中
      scp authorized_keys 192.168.1.7:/home/hadoop/.ssh/  
      scp authorized_keys 192.168.1.8:/home/hadoop/.ssh/
   最好在每台机器上进行chmod 600  authorized_keys操作,
   使当前用户具有 authorized_keys的读写权限。
   拷贝完成后,在每台机器上进行 service sshd restart  操作, 重新启动ssh服务。
   之后在每台机器输入 ssh 192.168.1.xx,测试能否无需输入密码连接另外两台机器。

          4. 配置Hadoop环境变量,HADOOP_HOME、hadoop-env.sh、yarn-env.sh。
(1)配置HADOOP_HOME,编辑  vim  /etc/profile 文件,添加如下内容:
    export HADOOP_HOME=/home/hadoop/hadoop-2.8.0 (Hadoop的安装路径)
    export PATH=$PATH:$HADOOP_HOME/sbin
    export PATH=$PATH:$HADOOP_HOME/bin 
  (以下两行最好加上,若没有启动Hadoop、hbase时都会有没加载lib成功的警告)    
     export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
     export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
(2)配置hadoop-env.sh、yarn-env.sh,在Hadoop安装目录下
    编辑  vim etc/hadoop/hadoop-env.sh  
    加入export JAVA_HOME=/opt/jvm/jdk1.8.0_121(jdk安装路径)
    编辑  vim etc/hadoop/yarn-env.sh  
    加入export JAVA_HOME=/opt/jvm/jdk1.8.0_121(jdk安装路径)

    保存退出

         5. 配置基本相关xml,core-site.xml、hdfs-site.xml、mapred-site.xml、mapred-site.xml

(1)配置core-site.xml,在Hadoop安装目录下 编辑  vim etc/hadoop/core-site.xml

主要配置NameNode 的URI和hadoop临时文件的存放目录


(2)配置hdfs-site.xml,在Hadoop安装目录下 编辑  vim etc/hadoop/hdfs-site.xml


(3)配置mapred-site.xml,在Hadoop安装目录下 编辑  vim etc/hadoop/mapred-site.xml


(4)配置yarn-site.xml,在Hadoop安装目录下 编辑  vim etc/hadoop/yarn-site.xml


      6.  配置slaves

在Hadoop安装目录下,编辑vim etc/hadoop/slaves,

去除默认的localhost,加入bigdata1、bigdata2,保存退出。

      7.  通过远程复制命令scp,将配置好的Hadoop复制到各个节点对应位置

scp -r /home/hadoop/hadoop2.8.0 192.168.1.7:/home/hadoop/hadoop2.8.0 

scp -r /home/hadoop/hadoop2.8.0 192.168.1.8:/home/hadoop/hadoop2.8.0  

      8.  Hadoop的启动与停止

(1) 在Master服务器启动hadoop,从节点会自动启动,进入Hadoop目录下,
输入命令,bin/hdfs namenode -format进行hdfs格式化
输入命令,sbin/start-all.sh,进行启动
也可以分开启动,sbin/start-dfs.sh、sbin/start-yarn.sh
在master 上输入命令:jps, 看到ResourceManager、NameNode、SecondaryNameNode进程
在slave 上输入命令:jps, 看到DataNode、NodeManager进程

出现这5个进程就表示Hadoop启动成功。

在浏览器中输入http://bigdata3:50070查看bigdata3(master)状态,

输入http://bigdata3:8088查看集群状态

(2)  停止hadoop,进入Hadoop目录下,输入命令:sbin/stop-all.sh, 即可停止master和slave的Hadoop进程

  • zookeeper完全分布配置

(1) 解压下载好的zookeeper后,然后进入conf目录(将zoo_sample.cfg修改为zoo.cfg)mv修改名称或者cp一个,老的作为样本

(2)vim zoo.cfg进行配置

tickTime=2000 心跳间隔
initLimit=10 初始容忍的心跳数
syncLimit=5 等待最大容忍的心跳数

dataDir=/home/hadoop/zookeeper-3.4.8/data 本地保存数据的目录,tmp存放的临时数据,可以修改为自己的目录;

dataLogDir=/home/hadoop/zookeeper-3.4.8/logs 日志保存的目录

clientPort=2181 客户端默认端口号

server.1=192.168.1.8:2888:3888
server.2=192.168.1.7:2888:3888 

server.3=192.168.1.10:2888:3888

(3)由于需要事先创建好data目录和logs,所以现在在zookeeper目录下创建data目录:

mkdir data

mkdir logs

然后在data目录创建一个文件myid,里面写一个3 (每台机器对应自己Ip的server.x中的x数字)

(4)然后将修改好的复制到bigdata1和bigdata2上面,记得修改myid中的数字

(5)至此Zookeeper搭建结束,下面开始启动Zookeeper,分别启动:
如果你不想切换到Zookeeper目录启动,可以配置环境变量:
vi /etc/profile(修改文件)
export ZOOKEEPER_HOME=/home/hadoop/zookeeper-3.4.8
export PATH=PATH:ZOOKEEPER_HOME/bin
重新编译文件:
source /etc/profile

注意:3台zookeeper都需要修改

(6)三台分别启动zookeeper,并查看状态


jps查看进程发现三台均多了个QuorumPeerMain进程

(7)关闭zk命令: bin/zkServer.sh stop

  • HBase分布式安装

(1)配置环境变量

编辑 vim /etc/profile  加入 
export  HBASE_HOME=/home/hadoop/hbase-1.2.6 
export  PATH=$HBASE_HOME/bin:$PATH

编辑vim /home/hadoop/hbase-1.2.6/conf/hbase-env.sh 

 export HBASE_CLASSPATH=/home/hadoop/hbase-1.2.6/conf

 export HBASE_PID_DIR=/home/hadoop/hbase-1.2.6/pids

 export HBASE_LOG_DIR=${HBASE_HOME}/logs

export JAVA_HOME=/opt/jvm/jdk1.8.0_121/
export HBASE_HOME=/home/hadoop/hbase-1.2.6
export HBASE_LOG_DIR=/home/hadoop/hbase-1.2.6/logs
export PATH=$PATH:$HBASE_HOME/bin
export HBASE_MANAGES_ZK=false
export HADOOP_HOME=/home/hadoop/hadoop2.8.0

(2)配置hbase-site.xml文件


(3)配置regionservers

编辑 vim /hadoop/hbase-1.2.6/conf/regionservers   去掉默认的localhost,

加入bigdata1、bigdata2,保存退出 

然后把在bigdata3上配置好的hbase,通过远程复制命令复制到bigdata1、bigdata2对应的位置

(4)启动与停止Hbase

在Hadoop已经启动成功的基础上,输入start-hbase.sh,过几秒钟便启动完成,
输入jps命令查看进程是否启动成功,若 bigdata3上出现HMaster,

bigdata1,bigdata2上出现HRegionServer,就是启动成功了。

输入hbase shell 命令 进入hbase命令模式
输入status命令可以看到如下内容,1个master,2 servers,3机器全部成功启动。

1 active master, 0 backup masters, 2 servers, 0 dead, 2.0000 average load

当要停止hbase时输入stop-hbase.sh,过几秒后hbase就会被停止了

  • 至此配置完成啦!
启动顺序:hadoop-->zookeeper-->hbase
关闭顺序:hbase-->zookeeper-->hadoop

这篇关于Hadoop2.8.0+Zookeeper3.4.8+Hbase1.2.6完全分布式配置的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1024203

相关文章

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

NameNode内存生产配置

Hadoop2.x 系列,配置 NameNode 内存 NameNode 内存默认 2000m ,如果服务器内存 4G , NameNode 内存可以配置 3g 。在 hadoop-env.sh 文件中配置如下。 HADOOP_NAMENODE_OPTS=-Xmx3072m Hadoop3.x 系列,配置 Nam

wolfSSL参数设置或配置项解释

1. wolfCrypt Only 解释:wolfCrypt是一个开源的、轻量级的、可移植的加密库,支持多种加密算法和协议。选择“wolfCrypt Only”意味着系统或应用将仅使用wolfCrypt库进行加密操作,而不依赖其他加密库。 2. DTLS Support 解释:DTLS(Datagram Transport Layer Security)是一种基于UDP的安全协议,提供类似于

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

HDU 2159 二维完全背包

FATE 最近xhd正在玩一款叫做FATE的游戏,为了得到极品装备,xhd在不停的杀怪做任务。久而久之xhd开始对杀怪产生的厌恶感,但又不得不通过杀怪来升完这最后一级。现在的问题是,xhd升掉最后一级还需n的经验值,xhd还留有m的忍耐度,每杀一个怪xhd会得到相应的经验,并减掉相应的忍耐度。当忍耐度降到0或者0以下时,xhd就不会玩这游戏。xhd还说了他最多只杀s只怪。请问他能

zoj 1721 判断2条线段(完全)相交

给出起点,终点,与一些障碍线段。 求起点到终点的最短路。 枚举2点的距离,然后最短路。 2点可达条件:没有线段与这2点所构成的线段(完全)相交。 const double eps = 1e-8 ;double add(double x , double y){if(fabs(x+y) < eps*(fabs(x) + fabs(y))) return 0 ;return x + y ;

沁恒CH32在MounRiver Studio上环境配置以及使用详细教程

目录 1.  RISC-V简介 2.  CPU架构现状 3.  MounRiver Studio软件下载 4.  MounRiver Studio软件安装 5.  MounRiver Studio软件介绍 6.  创建工程 7.  编译代码 1.  RISC-V简介         RISC就是精简指令集计算机(Reduced Instruction SetCom

log4j2相关配置说明以及${sys:catalina.home}应用

${sys:catalina.home} 等价于 System.getProperty("catalina.home") 就是Tomcat的根目录:  C:\apache-tomcat-7.0.77 <PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss} [%t] %-5p %c{1}:%L - %msg%n" /> 2017-08-10