Hadoop2.8.5集群安装(CentOS 7)

2023-12-31 09:48
文章标签 集群 安装 centos hadoop2.8

本文主要是介绍Hadoop2.8.5集群安装(CentOS 7),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

进行hadoop安装,首先集群分布条件需要三台或三台以上服务器主机,如果只有一台笔记本的话可以使用VMware Workstation安装三个虚拟主机。

一.安装JDK

1). 下载JDK

  • 下载地址

2). 解压并配置JDK环境变量

[root@localhost java]# tar -zxvf jdk-8u201-linux-x64.tar.gz
[root@localhost java]# vim /etc/profile     #在其中添加以下内容:
export JAVA_HOME=/usr/java/jdk1.8.0_171
export JRE_HOME=/usr/java/jdk1.8.0_171/jre
export CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

保存并退出后: [root@localhost java]# source /etc/profile 使环境变量立即更新

二.配置SSH免密登陆

如果要实现无密登陆到其它的主机,只需将生成的 “ id_rsa.pub " 追加到其它主机的 ” ~/.ssh/authorized_keys “ 中去。这里我们使用的方法是先将本机的 ” ~/.ssh/id_rsa.pub “ 拷贝到你想无密登陆的主机上,再在相应的主机上使用 ” cat " 命令将” ~/.ssh/id_rsa.pub “ 追加到该主机的 ” ~/.ssh/authorized_keys “ 中。

1.安装ssh: [root@localhost java]# yum install ssh

2.进入.ssh文件夹: [root@localhost java]# cd ~/.ssh  # 如果找不到这个文件夹,先执行一下 "ssh localhost"

3.生成密钥::[root@localhost .ssh]# ssh-keygen -t rsa      #一路回车即可

4.创建存放密钥文件: [root@localhost .ssh]# touch authorized_keys

5.追加密钥到文件:[root@localhost .ssh]# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

[root@localhost .ssh]# ll
total 20
-rw-r--r--. 1 root root  408 Jan 29 01:41 authorized_keys
-rw-------. 1 root root 1679 Jan 29 01:38 id_rsa
-rw-r--r--. 1 root root  408 Jan 29 01:38 id_rsa.pub

 

三.关闭防火墙

  • 目的:使外网可以访问linux端口
  • 关闭防火墙命令
  • [root@localhost /]# systemctl stop firewalld.service #停止firewall
  • [root@localhost /]# systemctl disable firewalld.service #禁止firewall开机启动
  • [root@localhost /]# reboot             #重新启动

四.配置hosts列表

该项也需要在HadoopSlave节点配置。

[root@localhost /]# vi /etc/hosts       #将下面三行添加到/etc/hosts文件中同时并注释掉所有主机原有的127.0.***

192.168.38.136  master  

192.168.38.137  slave1

192.168.38.138  slave2

ping slave1 如果能ping通表示配置成功

五.hadoop分布式集群安装

  • hadoop安装包下载:https://hadoop.apache.org/releases.html
  • 安装前需要在/usr/hadoop下新建文件夹:tmp/hdfs/name 与 tmp/hdfs/data   #后面会用到

解压安装包:[root@localhost hadoop]# tar -zxvf hadoop-2.8.5.tar.gz 

六.配置hadoop环境变量(etc/hadoop)目录下,hadoop-env.sh,core-site.xml,mapred-site.xml.template,hdfs-site.xml。)

1)配置hadoop-env.sh

将hadoop-env.sh文件靠前export JAVA_HOME=${JAVA_HOME} 修改为 export JAVA_HOME=/usr/java/jdk1.8.0_201

保存并退出

 

2) 配置core-site.xml文件 

#用下面代码替换文件中<configuration></configuration>
<configuration><property><name>hadoop.tmp.dir</name><value>/usr/hadoop/tmp</value></property><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property></configuration>

 

3) 配置hdfs-site.xml文件 

<configuration><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.namenode.name.dir</name><value>/usr/hadoop/tmp/hdfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>/usr/hadoop/tmp/hdfs/data</value></property></configuration>

4) 配置mapred-site.xml.template文件  

#先将 mapred-site.xml.template文件改为 mapred-site.xml<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property></configuration>

5) 配置yarn-site.xml文件

<configuration><property><name>yarn.resourcemanager.hostname</name><value>Master</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property>
</configuration>

6) 配置slaves文件

[root@localhost /]# vi slaves

master
slave1
slave2

7) 配置hadoop环境变量

[root@localhost /]# vi /etc/profile

export CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_HOME=/usr/hadoop/hadoop-2.8.5

#生效  [root@localhost /]# source /etc/profile

 

8) 将主节点上的文件复制到从节点上

[root@localhost /]# scp -r /usr/hadoop 192.168.38.137:/usr

[root@localhost /]# scp -r /usr/hadoop 192.168.38.138:/usr

9) 初始化HDFS(只在master上执行)

[root@localhost /]# bin/hadoop namenode -format

 

七. 启动测试

 启动HDFS(只在master上执行)

进入到hadoop主安装目录后使用 sbin/start-all.sh

验证方式:用”hadoop dfsadmin -report” 

如果出现下图则hadoop启动成功

 

这篇关于Hadoop2.8.5集群安装(CentOS 7)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/555669

相关文章

windows下安装Nginx全过程

《windows下安装Nginx全过程》文章介绍了HTTP和反向代理服务器的概念,包括正向代理和反向代理的区别,并详细描述了如何安装和配置Nginx作为反向代理服务器... 目录概念代理正向代理反向代理安装基本属性nginx.conf查询结构属性使用运行重启停止总结概念是一个高性能的HTTP和反向代理we

MySQL MHA集群详解(数据库高可用)

《MySQLMHA集群详解(数据库高可用)》MHA(MasterHighAvailability)是开源MySQL高可用管理工具,用于自动故障检测与转移,支持异步或半同步复制的MySQL主从架构,本... 目录mysql 高可用方案:MHA 详解与实战1. MHA 简介2. MHA 的组件组成(1)MHA

2025最新版Android Studio安装及组件配置教程(SDK、JDK、Gradle)

《2025最新版AndroidStudio安装及组件配置教程(SDK、JDK、Gradle)》:本文主要介绍2025最新版AndroidStudio安装及组件配置(SDK、JDK、Gradle... 目录原生 android 简介Android Studio必备组件一、Android Studio安装二、A

前端Visual Studio Code安装配置教程之下载、汉化、常用组件及基本操作

《前端VisualStudioCode安装配置教程之下载、汉化、常用组件及基本操作》VisualStudioCode是微软推出的一个强大的代码编辑器,功能强大,操作简单便捷,还有着良好的用户界面,... 目录一、Visual Studio Code下载二、汉化三、常用组件1、Auto Rename Tag2

golang实现nacos获取配置和服务注册-支持集群详解

《golang实现nacos获取配置和服务注册-支持集群详解》文章介绍了如何在Go语言中使用Nacos获取配置和服务注册,支持集群初始化,客户端结构体中的IpAddresses可以配置多个地址,新客户... 目录golang nacos获取配置和服务注册-支持集群初始化客户端可选参数配置new一个客户端 支

MySQL集群高可用架构的两种使用小结

《MySQL集群高可用架构的两种使用小结》本文介绍了MySQL的两种高可用解决方案:组复制(MGR)和MasterHighAvailability(MHA),文中通过示例代码介绍的非常详细,对大家的学... 目录一、mysql高可用之组复制(MGR)1.1 组复制核心特性与优势1.2 组复制架构原理1.3

Docker + Redis 部署集群的实现步骤

《Docker+Redis部署集群的实现步骤》本文详细介绍了在三台服务器上部署高可用Redis集群的完整流程,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋... 目录一、环境准备1. 服务器规划(3 台服务器)2. 防火墙配置(三台服务器均执行)3. 安装 docke

springBoot (springCloud2025)集成redisCluster 集群的操作方法

《springBoot(springCloud2025)集成redisCluster集群的操作方法》文章介绍了如何使用SpringBoot集成RedisCluster集群,并详细说明了pom.xm... 目录pom.XMLapplication.yamlcluster配置类其他配置类连接池配置类Redis

win10安装及配置Gradle全过程

《win10安装及配置Gradle全过程》本文详细介绍了Gradle的下载、安装、环境变量配置以及如何修改本地仓库位置,通过这些步骤,用户可以成功安装并配置Gradle,以便进行项目构建... 目录一、Gradle下载1.1、Gradle下载地址1.2、Gradle下载步骤二、Gradle安装步骤2.1、安

python依赖管理工具UV的安装和使用教程

《python依赖管理工具UV的安装和使用教程》UV是一个用Rust编写的Python包安装和依赖管理工具,比传统工具(如pip)有着更快、更高效的体验,:本文主要介绍python依赖管理工具UV... 目录前言一、命令安装uv二、手动编译安装2.1在archlinux安装uv的依赖工具2.2从github