hadoop学习笔记(六)——hadoop2.5.2全分布模式实现的部署

2024-03-31 11:18

本文主要是介绍hadoop学习笔记(六)——hadoop2.5.2全分布模式实现的部署,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

环境:centos7 + hadoop2.5.2 + jdk1.7

已经在前两篇博客中出现的步骤具体细节一笔带过,不再展示,具体可以参考ssh免密码登陆,伪分布

1)  SSH免密码登陆

2)  主节点安装jdk和hadoop,并配置环境变量

3)  配置主节点hadoop配置文件

除了需要额外配置slave,其他的跟伪分布一致。

yarn-site.xml配置文件需要额为一下信息

<span style="font-size:14px;"><configuration>
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
</property>
<property><name>yarn.resourcemanager.address</name><value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:8031</value>
</property>
</configuration></span>


4)  复制拷贝上述2.3中jdk,hadoop及其配置至所有从节点

如:scp /usr/local/hadoop2.5/etc/hadoop/*root@192.168.2.12:/usr/local/hadoop2.5/etc/hadoop

5)  初始化hadoop

初始化和运行hadoop只需要在主节点进行,系统会自动登陆到从节点进行相关的操作

hdfs namenode –format 格式化HDFS文件系统

INFO common.Storage: Storage directory/usr/local/hadoop2.5/hdfs/name has been successfully formatted.

6)  运行hadoop

start-dfs.sh,start-yarn.sh   启动hadoop

7)  测试程序

hadoop jar../share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.2.jar wordcount inputoutput  #运行wordcount

hadoop fs -ls output 查看运行之后产生的文件

hadoop fs -cat output/part-r-00000 查看运行结果

8)  同步文件脚本

a)  vi scp.sh

b)  #!/sbin/bash

<span style="font-size:14px;">#slave1
scp/usr/local/hadoop2.5/etc/hadoop/core-site.xmlroot@slave1:/usr/local/hadoop2.5/etc/hadoop
scp /usr/local/hadoop2.5/etc/hadoop/hdfs-site.xmlroot@slave1:/usr/local/hadoop2.5/etc/hadoop
scp/usr/local/hadoop2.5/etc/hadoop/mapred-site.xmlroot@slave1:/usr/local/hadoop2.5/etc/hadoop
scp/usr/local/hadoop2.5/etc/hadoop/yarn-site.xml root@slave1:/usr/local/hadoop2.5/etc/hadoop               
#slave2
scp/usr/local/hadoop2.5/etc/hadoop/core-site.xmlroot@slave2:/usr/local/hadoop2.5/etc/hadoop
scp/usr/local/hadoop2.5/etc/hadoop/hdfs-site.xmlroot@slave2:/usr/local/hadoop2.5/etc/hadoop
scp /usr/local/hadoop2.5/etc/hadoop/mapred-site.xmlroot@slave2:/usr/local/hadoop2.5/etc/hadoop
scp/usr/local/hadoop2.5/etc/hadoop/yarn-site.xmlroot@slave2:/usr/local/hadoop2.5/etc/hadoop   </span>

c)  保存scp.sh

d)  bash scp.sh

9)  总结

a)  hadoop初始化前的所有操作,master和slave都一样。

b)  初始化hadoop和运行程序只在master上进行。

c)  hadoop全分布部署中尽量不要出现localhost或者127.0.0.1,否则就是给自己挖坑。

d)  尽量用hostname,直接使用ip地址容易出错,也不利于维护,有些人说的用hostname会导致异常,纯粹是自己hostname和ip地址映射出现问题,与hostname无关。

e)  全分布与伪分布,在最简单配置的情况下,配置文件的差别一般发生在yarn-site.xml中,比伪分布需要的配置信息要更全面一些。另外,全分布需要配置slave文件。

10)异常信息及解决方案

1.  Q;WARN hdfs.DFSClient:DataStreamer Exception

org.apache.hadoop.ipc.RemoteException(java.io.IOException):File /user/root/input/hello.txt._COPYING_ could only be replicated to 0 nodesinstead of minReplication (=1).  Thereare 0 datanode(s) running and no node(s) are excluded in this operation.

A:关闭master的防火墙

2.  Q:INFO hdfs.DFSClient:Exception in createBlockOutputStreamjava.net.NoRouteToHostException: No routeto host

   WARN hdfs.DFSClient: DataStreamer Exception

org.apache.hadoop.ipc.RemoteException(java.io.IOException): File/user/root/input/hello.txt._COPYING_ could only be replicated to 0 nodesinstead of minReplication (=1).  Thereare 2 datanode(s) running and 2 node(s) are excluded in this operation.

A:关闭所有slave的防火墙

3.  Q:INFO ipc.Client: Retryingconnect to server: 0.0.0.0/0.0.0.0:8032.

A:yarn.xml中添加如下:

<property>

  <name>yarn.resourcemanager.address</name>

  <value>master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

     <name>yarn.resourcemanager.resource-tracker.address</name>

     <value>master:8031</value>

</property>

4.  Q:运行到running job时卡住不动了,INFO mapreduce.Job: Running job: job_1434601129948_0002

A:running job时不动了,也就是说nodemanager出现问题了额,jsp发现nodemanager启动正常,但是监控slave的nodemanager日志时发现一直在连接8031端口,始终连接不上,几分钟之后nodemanager就挂了。信息如下:

INFO org.apache.hadoop.ipc.Client: Retryingconnect to server: localhost/127.0.0.1:8031. Already tried 8 time(s); retrypolicy is

RetryUpToMaximumCountWithFixedSleep(maxRetries=10,sleepTime=1000 MILLISECONDS)

需要连接的8031端口应该时master的,由于master的配置文件中用的就是localhost,同步到slave中之后就有问题了,所以尽量不要在hadoop中使用诸如localhost或者127.0.0.1.


这篇关于hadoop学习笔记(六)——hadoop2.5.2全分布模式实现的部署的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/864207

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

闲置电脑也能活出第二春?鲁大师AiNAS让你动动手指就能轻松部署

对于大多数人而言,在这个“数据爆炸”的时代或多或少都遇到过存储告急的情况,这使得“存储焦虑”不再是个别现象,而将会是随着软件的不断臃肿而越来越普遍的情况。从不少手机厂商都开始将存储上限提升至1TB可以见得,我们似乎正处在互联网信息飞速增长的阶段,对于存储的需求也将会不断扩大。对于苹果用户而言,这一问题愈发严峻,毕竟512GB和1TB版本的iPhone可不是人人都消费得起的,因此成熟的外置存储方案开

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu