hadoop2.7.3搭建

2024-04-27 17:08
文章标签 搭建 hadoop2.7

本文主要是介绍hadoop2.7.3搭建,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

实验环境中搭建hadoop集群(3台示例)

1.修改主机名、修改hosts

vi /etc/sysconfig/network,然后将HOSTNAME修改成hadoop-node1(自定义)

  vi /etc/hosts ,添加hostname及其对应的ip


2.安装jdk和配置环境变量

2.1jdk下载安装不赘述

2.2环境变量:

/etc/profile文件中添加:

export HADOOP_HOME=/home/scada/hadoop(hadoop安装路径)
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export JAVA_HOME=/home/scada/jdk1.7.0_80(jdk安装路径)
export PATH=$PATH:$JAVA_HOME/bin
3.实现主节点可无秘钥登录其他节点

3.1安装ssh(ps -e | grep ssh存在ssh进程可忽略)

sudo apt-get install openssh-server

3.2在主节点上生成秘钥对

ssh-keygen -t rsa(一直enter即可)

3.3将公钥加入authorized_keys

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

3.4将主节点上的authorized_keys拷贝到其他主机上

3.5修改所有节点上authorized_keys权限:

chmod 600 .ssh/authorized_keys

4.解压hadoop包,在hadoop目录下创建文件系统目录
tar -zxvf hadoop...

mv hadoop... hadoop

cd hadoop

mkdir /dfs/name -p

mkdir /dfs/data -p

mkdir /tmp

5.配置相关hadoop文件

5.1 hadoop-env.sh, yarn-env.sh

修改JAVA_HOME值:export JAVA_HOME=/home/scadajdk1.7.0_80(jdk安装路径)

5.2 slaves(集群中从节点HOSTNAME)

hadoop-node2
hadoop-node3
5.3 core-site.xml

<configuration>  <property>  <name>fs.defaultFS</name>  <value>hdfs://hadoop-node1:9000</value>  </property>    <property>  <name>hadoop.tmp.dir</name>  <value>file:/home/scada/hadoop/tmp</value>  </property>  
</configuration>  
5.4 hdfs-site.xml

<configuration>  <property>  <name>dfs.namenode.secondary.http-address</name>  <value>hadoop-node1:9001</value>  </property>  <property>  <name>dfs.namenode.name.dir</name>  <value>file:/home/scada/hadoop/dfs/name</value>  </property>  <property>  <name>dfs.datanode.data.dir</name>  <value>file:/home/scada/hadoop/dfs/data</value>  </property>  <property>  <name>dfs.replication</name>  <value>2</value>  </property>  
</configuration> 
5.5 mapred-site.xml

<configuration>  <property>                                                                    <name>mapreduce.framework.name</name>  <value>yarn</value>  </property>  
</configuration> 
5.6 yarn-site.xml

<configuration>  <property>  <name>yarn.resourcemanager.hostname</name>  <value>hadoop-node1</value>  </property>  <property>  <name>yarn.nodemanager.aux-services</name>  <value>mapreduce_shuffle</value>  </property>  
</configuration>

6.将hadoop目录拷贝到其他节点

7.启动hadoop

hdfs namenode -format

start-all.sh

// hadoop-node1:/home/scada % jps
30099 NameNode
30270 SecondaryNameNode
22019 Jps
27124 ResourceManager
// hadoop-node2:/home/scada/hadoop/etc/hadoop % jps
17009 DataNode
30414 Jps
30277 NodeManager


测试:

1.上传文件:

/home/scada % hadoop fs -put jdk-7u80-linux-x64.tar.gz /
put: Call From hadoop-node1/172.16.1.216 to hadoop-node1:9000 failed on connection exception: java.net.ConnectException: 拒绝连接; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefuse
上传文件失败,查看datanode节点日志:
tail yarn-scada-nodemanager-hadoop-node2.log 
2017-04-01 06:48:00,878 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: hadoop-node1/172.16.1.216:8031. Already tried 8 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
2017-04-01 06:48:01,879 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: hadoop-node1/172.16.1.216:8031. Already tried 9 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
问题解决方法:http://www.cnblogs.com/dyllove98/archive/2013/06/20/3147024.html

上传文件:

// hadoop-node1:/home/scada % hadoop fs -put jdk-7u80-linux-x64.tar.gz /

查看是否上传成功:

// hadoop-node1:/home/scada % hadoop fs -ls /
Found 4 items
drwxr-xr-x   - scada supergroup          0 2017-03-27 08:35 /data
-rw-r--r--   2 scada supergroup  153530841 2017-04-01 06:57 /jdk-7u80-linux-x64.tar.gz
drwxr-xr-x   - scada supergroup          0 2017-03-28 00:59 /test
drwx------   - scada supergroup          0 2017-03-27 08:35 /tmp

将本地目录下的jdk压缩包删除,从hadoop分布式文件系统中下载刚刚上传的文件

// hadoop-node1:/home/scada % lsjdk-7u80-linux-x64.tar.gz  
// hadoop-node1:/home/scada % rm jdk-7u80-linux-x64.tar.gz 
// hadoop-node1:/home/scada % ls
// hadoop-node1:/home/scada % hadoop fs -get /jdk-7u80-linux-x64.tar.gz
// hadoop-node1:/home/scada % ls
jdk-7u80-linux-x64.tar.gz 
ok,先到这了~




这篇关于hadoop2.7.3搭建的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/941063

相关文章

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3

【IPV6从入门到起飞】5-1 IPV6+Home Assistant(搭建基本环境)

【IPV6从入门到起飞】5-1 IPV6+Home Assistant #搭建基本环境 1 背景2 docker下载 hass3 创建容器4 浏览器访问 hass5 手机APP远程访问hass6 更多玩法 1 背景 既然电脑可以IPV6入站,手机流量可以访问IPV6网络的服务,为什么不在电脑搭建Home Assistant(hass),来控制你的设备呢?@智能家居 @万物互联

pico2 开发环境搭建-基于ubuntu

pico2 开发环境搭建-基于ubuntu 安装编译工具链下载sdk 和example编译example 安装编译工具链 sudo apt install cmake gcc-arm-none-eabi libnewlib-arm-none-eabi libstdc++-arm-none-eabi-newlib 注意cmake的版本,需要在3.17 以上 下载sdk 和ex

JavaFX环境的搭建和一个简单的例子

之前在网上搜了很多与javaFX相关的资料,都说要在Eclepse上要安装sdk插件什么的,反正就是乱七八糟的一大片,最后还是没搞成功,所以我在这里写下我搭建javaFX成功的环境给大家做一个参考吧。希望能帮助到你们! 1.首先要保证你的jdk版本能够支持JavaFX的开发,jdk-7u25版本以上的都能支持,最好安装jdk8吧,因为jdk8对支持JavaFX有新的特性了,比如:3D等;

springboot+maven搭建的项目,集成单元测试

springboot+maven搭建的项目,集成单元测试 1.在pom.xml文件中引入单元测试的依赖包 <!--单元测试依赖--><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></depen

CentOS 7 SVN的搭建和使用

https://subversion.apache.org/packages.html#centos 阿里云的ECS貌似已经自带了SVN [root@xxx ~]# svn --versionsvn, version 1.7.14 (r1542130)compiled Aug 23 2017, 20:43:38Copyright (C) 2013 The Apache Software Fo

2021-08-14 react笔记-1 安装、环境搭建、创建项目

1、环境 1、安装nodejs 2.安装react脚手架工具 //  cnpm install -g create-react-app 全局安装 2、创建项目 create-react-app [项目名称] 3、运行项目 npm strat  //cd到项目文件夹    进入这个页面  代表运行成功  4、打包 npm run build

搭建H1veCTF平台

An Easy / Quick / Cheap Integrated Platform H1ve是一款自研CTF平台,同时具备解题、攻防对抗模式。其中,解题赛部分对Web和Pwn题型,支持独立题目容器及动态Flag防作弊。攻防对抗赛部分支持AWD一键部署,并配备炫酷地可视化战况界面。 项目地址:https://github.com/D0g3-Lab/H1ve 更多请打开。。。

day45-测试平台搭建之前端vue学习-基础4

目录 一、生命周期         1.1.概念         1.2.常用的生命周期钩子         1.3.关于销毁Vue实例         1.4.原理​编辑         1.5.代码 二、非单文件组件         2.1.组件         2.2.使用组件的三大步骤         2.3.注意点         2.4.关于VueComponen

Ubuntu下搭建基于apache2的gerrit+gitweb服务器

说明:Ubuntu版本12.04   1. 配置gerrit管理帐号 1 sudo adduser gerrit   增加sudo权限: 1 sudo usermod -a -G sudo gerrit   切换到gerrit账号: 1 sudo su gerrit     2. 安装java 1 2