hadoop2.5.1+ubantu14.04伪分布式配置及问题解答

2024-01-04 22:08

本文主要是介绍hadoop2.5.1+ubantu14.04伪分布式配置及问题解答,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

系统:ubantu64位
hadoop: 2.5.1

hadoop从大概2.5版本后,为了迎合如今64位系统,官网
下载的都是64位的。在/hadoop-2.5.1/lib/native/中libhadoop.so.1.0.0文件可以分辨的32位还是64位。方法:File libhadoop.so.1.0.0

如果你用的是hadoop2.4及以下,而你的linux系统是64位的,那我建议你从网上下载别人编译好的64位版本。

简单的配置参考这篇文章:http://blog.csdn.net/idber/article/details/40378231

注意的是:在配置jdk环境时,在hadoop-env.sh中有处不要写JAVA_HOME,而要写具体路径,否则可能出现启动hadoop时提示“JAVA_HOME is not set and could not be found”错误。

当然,他也有明显的错误,下面会提到,这里附上我的配置内容(我事先改了主机名为:mylinux)

/---------------core-site.xml---------------/
<property><name>fs.defaultFS</name><value>hdfs://mylinux:9000</value>
</property>
<property><name>hadoop.tmp.dir</name><value>file:/home/cc/software/hadoop-2.5.1/tmp</value>
</property> /----------------hdfs.site.xml---------------/
<property><name>dfs.namenode.name.dir</name><value>file:/home/cc/software/hadoop-2.5.1/tmp/dfs/name</value>
</property>
<property><name>dfs.datanode.data.dir</name><value>file:/home/cc/software/hadoop-2.5.1/tmp/dfs/data</value>
</property>
<property><name>dfs.replication</name><value>1</value>
</property>/-----------------mapred-site.xml---------------/
<property><name>mapreduce.framework.name</name><value>yarn</value></property>
<property><name>mapreduce.jobhistory.address</name><value>mylinux:10020</value>
</property>/------------------yarn-site.xml---------------/
<property><name>yarn.resourcemanager.hostname</name><value>mylinux</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><description>The address of the applications manager interface in the RM.</description>         <name>Yarn.resourcemanager.address</name>           <value>localhost:18040</value>             </property><property> <description>The address of the scheduler interface.</description> <name>Yarn.resourcemanager.scheduler.address</name>   <value>localhost:18030</value>     </property><property> <description>The address of the RM web application.</description> <name>Yarn.resourcemanager.webapp.address</name>   <value>localhost:18088</value>     </property><property> <description>The address of the resource tracker interface.</description> <name>Yarn.resourcemanager.resource-tracker.address</name>   <value>localhost:8025</value>    </property>/-----------------------slaves---------------/mylinux

1) mapred-site.xml本是不存在的,先把mapred-site.template.xml改名为它。

2) 很多文章写mapreduce.shuffle,这是不对是,我看到过log里出错,应该写为mapreduce_shuffle。

3)配置中出现的tmp及其子目录不用创建,当format时会自动生成,注意的是,每次format前最好删除tmp目录,否则接下来启动会出错,暂时没找到解决方法。

4) mapreduce.jobhistory.address要配置,如果不配,在进行例程运算时会默认使用 0.0.0.0:10020 ,会显示拒绝连接错误。

接下来格式化hdfs,hadoop-2.5.1/sbin/hadoop namenode -format

接下来启动:
start-dfs.sh
start-yarn.sh
注意:官方不建议使用start-all.sh

这里还要启动历史服务器,这是在很多文章都没有提到的,而将导致在测试例程时提示无法连接错误。
sbin/mr-jobhistory-daemon.sh start historyserver

接下来测试是否成功:
1)使用命令jps ,应该出现:
ResourceManager
JobHistoryServer
DataNode
NameNode
Jps
NodeManager
SecondaryNameNode

注意:一个都不能少,如果全有,也不能说明搭建环境成功。
另外,JobTracker这些早已被淘汰。

2)打开网址:htp://mylinux:50070
http://mylinux:8088

注意:打开8088这个不要用localhost而要用自己配置的主机名。
另外,很多文章中出现的网址,如50030,50060早已被淘汰了,当然打不开。

3)打开了网址还不能算搭建成功,下面测试个例程。
打开hadoop-2.5.1/share/hadoop/mapreduces文件夹下运行命令:
hadoop jar hadoop-mapreduce-example-2.5.1.jar pi 5 5
如果能出现job运行耗时以及计算出的pi的值,那么hadoop环境搭建算成功了。

这篇关于hadoop2.5.1+ubantu14.04伪分布式配置及问题解答的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/570743

相关文章

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

NameNode内存生产配置

Hadoop2.x 系列,配置 NameNode 内存 NameNode 内存默认 2000m ,如果服务器内存 4G , NameNode 内存可以配置 3g 。在 hadoop-env.sh 文件中配置如下。 HADOOP_NAMENODE_OPTS=-Xmx3072m Hadoop3.x 系列,配置 Nam

wolfSSL参数设置或配置项解释

1. wolfCrypt Only 解释:wolfCrypt是一个开源的、轻量级的、可移植的加密库,支持多种加密算法和协议。选择“wolfCrypt Only”意味着系统或应用将仅使用wolfCrypt库进行加密操作,而不依赖其他加密库。 2. DTLS Support 解释:DTLS(Datagram Transport Layer Security)是一种基于UDP的安全协议,提供类似于

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

沁恒CH32在MounRiver Studio上环境配置以及使用详细教程

目录 1.  RISC-V简介 2.  CPU架构现状 3.  MounRiver Studio软件下载 4.  MounRiver Studio软件安装 5.  MounRiver Studio软件介绍 6.  创建工程 7.  编译代码 1.  RISC-V简介         RISC就是精简指令集计算机(Reduced Instruction SetCom

log4j2相关配置说明以及${sys:catalina.home}应用

${sys:catalina.home} 等价于 System.getProperty("catalina.home") 就是Tomcat的根目录:  C:\apache-tomcat-7.0.77 <PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss} [%t] %-5p %c{1}:%L - %msg%n" /> 2017-08-10

DM8数据库安装后配置

1 前言 在上篇文章中,我们已经成功将库装好。在安装完成后,为了能够更好地满足应用需求和保障系统的安全稳定运行,通常需要进行一些基本的配置。下面是一些常见的配置项: 数据库服务注册:默认包含14个功能模块,将这些模块注册成服务后,可以更好的启动和管理这些功能;基本的实例参数配置:契合应用场景和发挥系统的最大性能;备份:有备无患;… 2 注册实例服务 注册了实例服务后,可以使用系统服务管理,

集中式版本控制与分布式版本控制——Git 学习笔记01

什么是版本控制 如果你用 Microsoft Word 写过东西,那你八成会有这样的经历: 想删除一段文字,又怕将来这段文字有用,怎么办呢?有一个办法,先把当前文件“另存为”一个文件,然后继续改,改到某个程度,再“另存为”一个文件。就这样改着、存着……最后你的 Word 文档变成了这样: 过了几天,你想找回被删除的文字,但是已经记不清保存在哪个文件了,只能挨个去找。真麻烦,眼睛都花了。看