Hadoop2.6.5 HA完全分布式搭建

2023-11-06 04:10

本文主要是介绍Hadoop2.6.5 HA完全分布式搭建,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、准备工作

虚拟机器:vmware workstation 14

Linux系统:Centos 6.4

JDK版本:jdk-8u161-linux-x64.tar.gz

Hadoop版本:hadoop-2.6.5.tar.gz

二、基本配置

1、系统安装(略),在/usr/local目录下建立 soft文件夹(存放下载的软件),Java(jdk),hadoop(hadoop文件)

# cd /usr/local

# mkdir java soft hadoop

 

2、设置主机名字与hosts配置,为配置SSH做准备,这里我们准备5台虚拟机,2台 namenode节点,3台 datanode节点

master 192.168.91.130

master 192.168.91.135

slave1 192.168.91.131

slave2 192.168.91.132

slave3 192.168.91.133

a)依次在5台机器上设置hostname,方便系统操作,将hostname 依次设置为master msater2 slave1 save2 slave3

# vim /etc/sysconfig/network

b)依次在每台机器上配置hosts配置文件,hosts配置文件类似于DNS的作用,当发生网络请求时首先扫描该配置文件

# vim /etc/hosts

校验是否配置成功:

 

注意:修改完hostname后切记要重启机器

3、同步时间:

ntpdate -u ntp.api.bz

2、JDK安装:

a)拷贝jdk文件到Java目录下,并解压

# cp jdk-8u161-linux-x64.tar.gz /usr/local/java

# tar -zxvf jdk-8u161-linux-x64.tar.gz

b)配置环境变量

将以下配置文件放在 profile文件中

export JAVA_HOME=/usr/local/java/jdk1.8.0_161

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

 

# vim /etc/profile

立即生效

# source /etc/profile

检查是否安装成功

# java -version或 jps

 

3、配置SSH免密钥

配置密钥前给每个机器添加用户 hadoop,在hadoop用户下创建密钥,因为授予root权限面密钥登陆

有些不安全,毕竟不是一个人在操作,这里我们创建hadoop用户,并授予其 /usr/local 775权限

# chmod 775 /usr/local/

hadoop集群启动以后在管理过程中,namenode是通过ssh管理datanode节点的启动或停止的,所以必须设置为免密钥,这里我们在每台机器上配置公钥,同理datanode节点也可以通过ssh向namenode节点做一些操作。

原理:

当Master通过SSH连接Salve时,Salve就会生成一个随机数并用Master的公钥对随机数进行加密,并发送给Master。Master收到加密数之后再用私钥解密,并将解密数回传给Slave,Slave确认解密数无误之后就允许Master进行连接了。这就是一个公钥认证过程,其间不需要用户手工输入密码。重要过程是将客户端Master复制到Slave上。

 

a)配置master免密钥登陆其他节点

#ssh-keygen -t dsa -P ''

配置本地免密钥登陆

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

注意:目前还是不能完成本地登陆的,还没有得到root授权

修改ssh授权配置

# vim /etc/ssh/sshd_config

如果还不能登陆则需要 .ssh父级及hadoop 目录需要755权限

在slave1节点执行相同的操作,然后将master节点id_dsa.pub发送到slave1节点/tmp目录下,并追加到slave1 的authorized_keys中,同样将slave1中的id_dsa.pub追加到master 中,互相持有对方的公钥

#cat /tmp/id_dsa.pub>>.ssh/authorized_keys

检查是否成功

#ssh slave1

其他节点也是如此,5个节点可以彼此通过ssh免密钥访问.

三、配置hadoop

1、将下载好的hadoop2.6.5.tar.gz安装包,放在/usr/local/soft目录下,并copy倒/usr/local/hadoop目录下解压,重命名

#tar -zxvf hadoop-2.6.5.tar.gz

#mv hadoop-2.6.5 hadoop

2、在hadoop目录下建立使用的文件夹,

#mkdir -p tmp hdfs hdfs/data hdfs/name

3、配置环境变量

#vim /etc/profile

export HADOOP_HOME=/usr/local/hadoop/hadoop

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

使其生效

#source /etc/profile

4、配置hadoop配置文件

进入$HADOOP_HOME/etc/hadoop目录,配置 hadoop-env.sh等。涉及的配置文件如下:

hadoop/etc/hadoop/hadoop-env.sh

hadoop/etc/hadoop/yarn-env.sh

hadoop/etc/hadoop/core-site.xml

hadoop/etc/hadoop/hdfs-site.xml

hadoop/etc/hadoop/mapred-site.xml

hadoop/etc/hadoop/yarn-site.xml

(1)配置hadoop-env.sh;yarn-env.sh Java环境变量

The java implementation to use. #export JAVA_HOME=${JAVA_HOME} export JAVA_HOME=/usr/java/jdk1.7.0_79

(2)配置core-site.xml配置文件

 <!--  fs.defaultDFS--> :这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表

<property>

          <name>fs.defaultDFS</name>

          <value>hdfs://master:9000</value>

</property>

<!---->

hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个路径中

 

(3)在slaves目录下配置datanode数据节点,进入/usr/local/hadoop/hadoop/etc/hadoop目录

#cd /usr/local/hadoop/hadoop/etc/hadoop

在这里只写入 slave1 slave2 slave3数据节点

(4)将配置好的hadoop 拷贝到其他节点

四 配置Zookeeper

1、将conf目录下的zoo_example.cfg 命名为 zoo.cfg

#cp zoo_example.cfg zoo.cfg

2、配置三个节点,slave1 slave2 slave3

dataDir=/usr/local/hadoop/zookeeper/data

dataLogDir=/usr/local/hadoop/zookeeper/logs

server.1=slave1:2888:3888

server.2=slave2:2888:3888

server.3=slave3:2888:3888

3、分发到slave2,slave2,slave3节点上 ,启动时三个节点都要启动

#zkServer.sh start

六 启动过程

1.启动zookeeper集群(在主机名slave1,slave2,slave3上启动)

启动:zkServer.sh start

查看状态:zkServer.sh status

2、启动journalnode(分别在master、master2、slave1上执行)

hadoop-daemon.sh start journalnode

jps

显示JouralNode + QuorumpeerMain

3、格式化namenode

hdfs namenode -format

4、格式化ZKFC

hdfs zkfc -formatZK

5、master中的Namenode节点同步到master2节点

master2中执行:

hdfs namenode -bootstrapstandby

6、启动NameNode和DataNode

# start-dfs.sh

7、启动yarn

# start-yarn.sh

8.启动ZookeeperFailoverController(master节点和master2节点)

# hadoop-daemon.sh start zkfc

这篇关于Hadoop2.6.5 HA完全分布式搭建的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/354399

相关文章

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3

【IPV6从入门到起飞】5-1 IPV6+Home Assistant(搭建基本环境)

【IPV6从入门到起飞】5-1 IPV6+Home Assistant #搭建基本环境 1 背景2 docker下载 hass3 创建容器4 浏览器访问 hass5 手机APP远程访问hass6 更多玩法 1 背景 既然电脑可以IPV6入站,手机流量可以访问IPV6网络的服务,为什么不在电脑搭建Home Assistant(hass),来控制你的设备呢?@智能家居 @万物互联

HDU 2159 二维完全背包

FATE 最近xhd正在玩一款叫做FATE的游戏,为了得到极品装备,xhd在不停的杀怪做任务。久而久之xhd开始对杀怪产生的厌恶感,但又不得不通过杀怪来升完这最后一级。现在的问题是,xhd升掉最后一级还需n的经验值,xhd还留有m的忍耐度,每杀一个怪xhd会得到相应的经验,并减掉相应的忍耐度。当忍耐度降到0或者0以下时,xhd就不会玩这游戏。xhd还说了他最多只杀s只怪。请问他能

zoj 1721 判断2条线段(完全)相交

给出起点,终点,与一些障碍线段。 求起点到终点的最短路。 枚举2点的距离,然后最短路。 2点可达条件:没有线段与这2点所构成的线段(完全)相交。 const double eps = 1e-8 ;double add(double x , double y){if(fabs(x+y) < eps*(fabs(x) + fabs(y))) return 0 ;return x + y ;

pico2 开发环境搭建-基于ubuntu

pico2 开发环境搭建-基于ubuntu 安装编译工具链下载sdk 和example编译example 安装编译工具链 sudo apt install cmake gcc-arm-none-eabi libnewlib-arm-none-eabi libstdc++-arm-none-eabi-newlib 注意cmake的版本,需要在3.17 以上 下载sdk 和ex

集中式版本控制与分布式版本控制——Git 学习笔记01

什么是版本控制 如果你用 Microsoft Word 写过东西,那你八成会有这样的经历: 想删除一段文字,又怕将来这段文字有用,怎么办呢?有一个办法,先把当前文件“另存为”一个文件,然后继续改,改到某个程度,再“另存为”一个文件。就这样改着、存着……最后你的 Word 文档变成了这样: 过了几天,你想找回被删除的文字,但是已经记不清保存在哪个文件了,只能挨个去找。真麻烦,眼睛都花了。看

开源分布式数据库中间件

转自:https://www.csdn.net/article/2015-07-16/2825228 MyCat:开源分布式数据库中间件 为什么需要MyCat? 虽然云计算时代,传统数据库存在着先天性的弊端,但是NoSQL数据库又无法将其替代。如果传统数据易于扩展,可切分,就可以避免单机(单库)的性能缺陷。 MyCat的目标就是:低成本地将现有的单机数据库和应用平滑迁移到“云”端

laravel框架实现redis分布式集群原理

在app/config/database.php中配置如下: 'redis' => array('cluster' => true,'default' => array('host' => '172.21.107.247','port' => 6379,),'redis1' => array('host' => '172.21.107.248','port' => 6379,),) 其中cl

基于MySQL实现的分布式锁

概述 在单机时代,虽然不需要分布式锁,但也面临过类似的问题,只不过在单机的情况下,如果有多个线程要同时访问某个共享资源的时候,我们可以采用线程间加锁的机制,即当某个线程获取到这个资源后,就立即对这个资源进行加锁,当使用完资源之后,再解锁,其它线程就可以接着使用了。例如,在JAVA中,甚至专门提供了一些处理锁机制的一些API(synchronize/Lock等)。 但是到了分布式系统的时代,这种

JavaFX环境的搭建和一个简单的例子

之前在网上搜了很多与javaFX相关的资料,都说要在Eclepse上要安装sdk插件什么的,反正就是乱七八糟的一大片,最后还是没搞成功,所以我在这里写下我搭建javaFX成功的环境给大家做一个参考吧。希望能帮助到你们! 1.首先要保证你的jdk版本能够支持JavaFX的开发,jdk-7u25版本以上的都能支持,最好安装jdk8吧,因为jdk8对支持JavaFX有新的特性了,比如:3D等;