第5章 Hadoop 2.6 Multi Node Cluster安裝指令

2024-06-12 20:32

本文主要是介绍第5章 Hadoop 2.6 Multi Node Cluster安裝指令,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Hadoop Multi Node Cluster規劃如下圖,


  • 由多台電腦組成: 有一台主要的電腦master,在HDFS擔任NameNode角色,在MapReduce2(YARN)擔任ResourceManager角色
  • 有多台的電腦data1、data2、data3,在HDFS擔任DataNode角色,在MapReduce2(YARN)擔任NodeManager角色 



Hadoop Multi Node Cluster 規劃,整理如下表格:
伺服器名稱
IP
HDFS
YARN
master
192.168.0.100
NameNode
ResourceManager
data1
192.168.0.101
DataNode
NodeManager
data2
192.168.0.102
DataNode
NodeManager
data3
192.168.0.103
DataNode
NodeManager

第5章 <wbr>Hadoop <wbr>2.6 <wbr>Multi <wbr>Node <wbr>Cluster安裝指令




安裝步驟



   複製Single Node Cluster到data1
   設定data1伺服器
   複製data1伺服器至data2、data3、master
   設定data2、data3伺服器
   設定master伺服器
   master連線至data1、data2、data3建立HDFS目錄
   建立與格式化NameNode HDFS 目錄
   啟動Hadoop Multi Node cluster
   開啟Hadoop Resource-Manager Web介面
10    開啟NameNode Web介面


5.1.複製Single Node Cluster到data1
我們將之前所建立的Single Node Cluster VirtualBox hadoop虛擬機器複製到data1 
5.2.設定data1伺服器

Step2.編輯網路設定檔設定固定IP
sudo gedit /etc/network/interfaces
輸入下列內容
# interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.0.101 netmask 255.255.255.0 network 192.168.0.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1  
Step3.設定hostname
sudo gedit /etc/hostname
輸入下列內容:
data1
Step4.設定hosts檔案
sudo gedit /etc/hosts
輸入下列內容:
127.0.0.1 localhost 127.0.1.1 hadoop 192.168.0.100 master 192.168.0.101 data1 192.168.0.102 data2 192.168.0.103 data3 # The following lines are desirable for IPv6 capable hosts ::1 ip6-localhost ip6-loopback fe00::0 ip6-localnet ff00::0 ip6-mcastprefix ff02::1 ip6-allnodes ff02::2 ip6-allrouters
Step5.修改core-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml
在之間,輸入下列內容:
fs.default.name hdfs://master:9000  
Step6.修改yarn-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml
在之間,輸入下列內容:
yarn.resourcemanager.resource-tracker.address master:8025 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.address master:8050
Step7.修改mapred-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/mapred-site.xml
在之間,輸入下列內容:
mapred.job.tracker master:54311
Step8.修改hdfs-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml
在之間,輸入下列內容:

   dfs.replication    3    dfs.datanode.data.dir   file:/usr/local/hadoop/hadoop_data/hdfs/datanode    
5.3.複製data1伺服器至data2、data3、master


5.4.設定data2、data3伺服器
Step2.設定data2固定IP
sudo gedit /etc/network/interfaces
輸入下列內容
# interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.0.102 netmask 255.255.255.0 network 192.168.0.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1  
Step3.設定data2主機名稱
sudo gedit /etc/hostname
輸入下列內容:
data2


Step6.設定data3固定IP
sudo gedit /etc/network/interfaces
輸入下列內容
# interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.0.103 netmask 255.255.255.0 network 192.168.0.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1  
Step7.設定data3主機名稱
sudo gedit /etc/hostname
輸入下列內容:
data3


5.5.設定master伺服器
Step2.設定master固定IP
sudo gedit /etc/network/interfaces
輸入下列內容
# interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.0.100 netmask 255.255.255.0 network 192.168.0.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1  
Step3.設定master主機名稱
sudo gedit /etc/hostname
輸入下列內容:
master

Step4.設定hdfs-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml
輸入下列內容:
 
  dfs.replication 3 dfs.namenode.name.dir file:/usr/local/hadoop/hadoop_data/hdfs/namenode

Step5.設定master檔案
sudo gedit /usr/local/hadoop/etc/hadoop/master
輸入下列內容:
 
master

Step6.設定slaves檔案
sudo gedit /usr/local/hadoop/etc/hadoop/slaves
輸入下列內容:
 
data1 data2 data3

5.6.master連線至data1、data2、data3建立HDFS目錄
master SSH連線至data1並建立HDFS目錄
ssh data1 sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode sudo chown hduser:hduser -R /usr/local/hadoop exit
master SSH連線至data2並建立HDFS目錄
ssh data2 sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode sudo chown hduser:hduser -R /usr/local/hadoop exit
master SSH連線至data3並建立HDFS目錄
ssh data3 sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode sudo chown hduser:hduser -R /usr/local/hadoop exit
5.7.建立與格式化NameNode HDFS 目錄
Step1 重新建立NameNode HDFS 目錄

sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs mkdir -p /usr/local/hadoop/hadoop_data/hdfs/namenode sudo chown -R hduser:hduser /usr/local/hadoop
Step2 格式化NameNode HDFS 目錄
hadoop namenode -format
5.8.啟動Hadoop
啟動start-dfs.sh,再啟動 start-yarn.sh
start-dfs.sh start-yarn.sh

啟動全部
start-all.sh
查看目前所執行的行程
jps
Hadoop Resource­Manager Web介面網址
http://master:8088/
5.9.開啟Hadoop Resource-Manager Web介面
開啟HDFS Web UI網址
http://master:50070/
5.10.開啟Hadoop Resource-Manager Web介面
開啟HDFS Web UI網址
http://master:50070/

这篇关于第5章 Hadoop 2.6 Multi Node Cluster安裝指令的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1055255

相关文章

Node.js 中 http 模块的深度剖析与实战应用小结

《Node.js中http模块的深度剖析与实战应用小结》本文详细介绍了Node.js中的http模块,从创建HTTP服务器、处理请求与响应,到获取请求参数,每个环节都通过代码示例进行解析,旨在帮... 目录Node.js 中 http 模块的深度剖析与实战应用一、引言二、创建 HTTP 服务器:基石搭建(一

这15个Vue指令,让你的项目开发爽到爆

1. V-Hotkey 仓库地址: github.com/Dafrok/v-ho… Demo: 戳这里 https://dafrok.github.io/v-hotkey 安装: npm install --save v-hotkey 这个指令可以给组件绑定一个或多个快捷键。你想要通过按下 Escape 键后隐藏某个组件,按住 Control 和回车键再显示它吗?小菜一碟: <template

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件

2014 Multi-University Training Contest 8小记

1002 计算几何 最大的速度才可能拥有无限的面积。 最大的速度的点 求凸包, 凸包上的点( 注意不是端点 ) 才拥有无限的面积 注意 :  凸包上如果有重点则不满足。 另外最大的速度为0也不行的。 int cmp(double x){if(fabs(x) < 1e-8) return 0 ;if(x > 0) return 1 ;return -1 ;}struct poin

2014 Multi-University Training Contest 7小记

1003   数学 , 先暴力再解方程。 在b进制下是个2 , 3 位数的 大概是10000进制以上 。这部分解方程 2-10000 直接暴力 typedef long long LL ;LL n ;int ok(int b){LL m = n ;int c ;while(m){c = m % b ;if(c == 3 || c == 4 || c == 5 ||

2014 Multi-University Training Contest 6小记

1003  贪心 对于111...10....000 这样的序列,  a 为1的个数,b为0的个数,易得当 x= a / (a + b) 时 f最小。 讲串分成若干段  1..10..0   ,  1..10..0 ,  要满足x非递减 。  对于 xi > xi+1  这样的合并 即可。 const int maxn = 100008 ;struct Node{int