Ubuntu12 部署 Hadoop 全流程总结

2024-05-26 14:08

本文主要是介绍Ubuntu12 部署 Hadoop 全流程总结,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

环境:
VMware® Workstation 8.0.4 build-744019
ubuntu-12.04-desktop-i386.iso
jdk-7u7-linux-i586.gz
hadoop-0.20.203.0rc1.tar.gz

第一步:搭建虚拟机基础环境
至少需要3台虚拟机才能模拟hadoop的真实运行场景:一台作为master节点,跑namenode和jobtracker进程;两台作为slave节点,跑datanode和tasktracker。
具体过程:
1.安装 VMware®  Workstation  8.0.4 build-744019
2.使用 ubuntu-12.04-desktop-i386.iso装一台虚拟机
3.安装 jdk-7u7-linux-i586.gz,具体步骤参见: http://user.qzone.qq.com/26896185/blog/1346764350
4.设置虚拟机的网络连接为bridged模式,这样的话虚拟机就可以和宿主机器在同一个网段;
5.复制两台虚拟机,在 VMware 中修改机器名以方便识别,具体步骤参见: http://user.qzone.qq.com/26896185/blog/1346553654
6.用 VMware加载复制出来的虚拟机,分别修改hostname文件(我将三台机器修改为masternode、slavenode1、slavenode2): 当使用VMware加载复制的虚拟机文件时,会提示“是否拷贝过”,选择“拷贝过”,vmware会自动帮修改mac地址等基本信息,但是hostname不会改动,所以复制后的虚拟机hostname和原来的虚拟机一致,千万别忘记手工修改  /etc/hostname 文件,主机名最好与 /etc/hosts 中的地址映射主机名保持一致!!!
7. 为三台虚拟机配置固定IP ;
8. 为三台虚拟机  /etc/hosts 
9.为每台虚拟机创建专门用来管理Hadoop的用户账号(可以三台都相同,或者在复制之前就创建好,我建的用户是grid);
10.配置SSH免登陆,具体步骤参见  http://user.qzone.qq.com/26896185/blog/1346862626

第二步:安装Hadoop
具体过程:
1.在目标目录解压hadoop安装包(我解压到/home/grid/hadoop);
2.修改hadoop/conf/下的配置文件: hadoop-env.sh   ,   core-site.xml  ,hdfs-site.xml  ,mapred-site.xml  ,  masters  , slaves
hadoop-env.sh 文件主要修改如下语句, 用于指明JDK位置
# The java implementation to use.  Required.
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_07

core-site.xml 文件主要编辑如下语句, 用于指明namenode的域名/ip和端口
 <property>
  <name>fs.default.name</name>
  <value>hdfs://masternode:9000</value>
 </property>
 <property>
  <name>hadoop.tmp.dir</name>
  <value>/home/grid/hadoop_tmp</value>
  <description>A base for other temporary directories.</description>
 </property>

hdfs-site.xml 文件主要编辑如下语句, 用于指明namenode、datanode的数据存放位置,及数据副本的个数
<property>
<name>dfs.name.dir</name>
<value>/home/grid/hadoop/namedata</value>
</property>

<property>
<name>dfs.data.dir</name>
<value>/home/grid/hadoop/data</value>
</property>

<property>
<name>dfs.replication</name>
<value>2</value>
</property>

mapred-site.xml 主要编辑如下语句, 用于指明jobtracker进程所在节点的域名/ip和端口
<property>
<name>mapred.job.tracker</name>
<value>masternode:9001</value>
</property>

masters文件添加master节点的域名或ip地址,我添加的是
masternode

slaves文件添加slave节点的域名或ip地址,我添加的是
slavenode1
slavenode2


3.向各节点复制hadoop文件夹;

4.在master节点上执行命令格式化namenode: hadoop/bin/hadoop namenode -format

5.启动hadoop: hadoop/bin/ start-all.sh    (相反的关闭hadoop:hadoop/bin/stop-all.sh)

6.用jps检验各后台进程是否成功启动:进入到jdk安装目录,执行 bin/jps,在master节点应该能看到namenode、jobtracker、secondarynamenode 三个进程,在slave节点应该能看到datanode、tasktracker两个进程。
各种报错的解决办法请参见:
http://blog.csdn.net/u010967382/article/details/9069625  
和  
http://blog.csdn.net/u010967382/article/details/9069623

这篇关于Ubuntu12 部署 Hadoop 全流程总结的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1004681

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

闲置电脑也能活出第二春?鲁大师AiNAS让你动动手指就能轻松部署

对于大多数人而言,在这个“数据爆炸”的时代或多或少都遇到过存储告急的情况,这使得“存储焦虑”不再是个别现象,而将会是随着软件的不断臃肿而越来越普遍的情况。从不少手机厂商都开始将存储上限提升至1TB可以见得,我们似乎正处在互联网信息飞速增长的阶段,对于存储的需求也将会不断扩大。对于苹果用户而言,这一问题愈发严峻,毕竟512GB和1TB版本的iPhone可不是人人都消费得起的,因此成熟的外置存储方案开

Security OAuth2 单点登录流程

单点登录(英语:Single sign-on,缩写为 SSO),又译为单一签入,一种对于许多相互关连,但是又是各自独立的软件系统,提供访问控制的属性。当拥有这项属性时,当用户登录时,就可以获取所有系统的访问权限,不用对每个单一系统都逐一登录。这项功能通常是以轻型目录访问协议(LDAP)来实现,在服务器上会将用户信息存储到LDAP数据库中。相同的,单一注销(single sign-off)就是指

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推