hadoop完全分布式手动安装(一主多从centos linux各版本均试验成功,文档完整无一遗漏)

本文主要是介绍hadoop完全分布式手动安装(一主多从centos linux各版本均试验成功,文档完整无一遗漏),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

hadoop完全分布式手动安装(一主多从centos linux各版本均试验成功,文档完整无一遗漏)


网上的文章99%都是垃圾,我凭良心书写,确保幼儿园同学也能安装成功!


查看系统环境
   1、查看Centos的版本
查看版本
lsb_release -a
或:
rpm -q centos-release
   2、查看是否安装openjdk
rpm -qa | grep java
   3、查看是否安装mariadb(mysql)
rpm -qa | grep mariadb
   4、查看是否安装mysql
rpm -qa | grep mysql
   5、查看是否安装ssh
rpm -qa | grep ssh
   6、查看是否安装ntp
rpm -qa | grep ntp
   7、查看是否安装httpd
rpm -qa | grep httpd
   8、如果安装了openjdk、mariadb就卸载
        yum -y remove java 具体安装的包
        yum -y remove mariadb 具体安装的包
yum -y remove mariadb mariadb-libs-5.5.41-2.el7_0.x86_64
一、环境配置
  1、修改机器名
1、Centos7以下版本: vi /etc/sysconfig/network 
        2、Centos7级以上版本:hostnamectl set-hostname hadoop_master
   查看主机名 hostnamectl --static
修改/etc/hosts添加 (所有机器)
vi /etc/hosts
192.168.1.153 master #IP地址依据你的实际情况来
192.168.1.124 slave1 #IP地址依据你的实际情况来
192.168.1.234 slave2 #IP地址依据你的实际情况来
   2、环境设置 (所有机器)
echo never > /sys/kernel/mm/transparent_hugepage/defrag
vi /etc/rc.local 添加 echo never > /sys/kernel/mm/transparent_hugepage/defrag

echo "echo never > /sys/kernel/mm/transparent_hugepage/defrag" >>/etc/rc.local
sudo sysctl vm.swappiness=10
centos 7以下
vi /etc/sysctl.conf 添加 vm.swappiness=10
centos7以上 
vi /usr/lib/sysctl.d/00-system.conf 添加 vm.swappiness=10
或者采用 关闭 echo "vm.swappiness=10" >>/usr/lib/sysctl.d/00-system.conf #将字符串 vm.swappiness=10 添加到 00-system.conf 这个文件的末端
   3、配置ssh (所有机器)
a、如果端口不是22则需要修改默认端口
  vi /etc/ssh/ssh_config 修改 ssh默认的端口
b、安装openssh
  yum install openssh
c、配置无密码登录
  ssh-keygen -t rsa 一路回车即可
  cd /root/.ssh
  cp id_rsa.pub master.pub 
  cp id_rsa.pub slave1.pub
  cp id_rsa.pub slave2.pub

  cat /root/.ssh/master.pub >> /root/.ssh/authorized_keys
  cat /root/.ssh/master.pub >> /root/.ssh/authorized_keys
  cat /root/.ssh/slave1.pub >> /root/.ssh/authorized_keys
  cat /root/.ssh/slave2.pub >> /root/.ssh/authorized_keys
  cat /root/.ssh/slave2.pub >> /root/.ssh/authorized_keys
  service sshd restart
   4、关闭防火墙 (所有机器)
service iptables stop #临时关闭
/etc/rc.d/init.d/iptables restart 
chkconfig iptables off #重启后生效


centos 7关闭防火墙
service firewalld stop
chkconfig firewalld off #重启后生效
   5、配置时间同步服务ntp 
        如果没有先安装 ntpd服务: yum install ntp
vi /etc/ntp.conf
master机器添加如下内容:
server time.nist.gov
slave机器添加如下内容:
restrict 192.168.1/24 mask 255.255.255.0 nomodify
server master
启动ntp服务
service ntpd restart
将ntp服务加入开机启动中
chkconfig ntpd on
查看ntp服务状态 ntpstat
从主服务器更新一下时间
ntpdate -u hadoop_master
    6、
二、软件手动安装
    1、JDK安装
a、下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
b、解压到/opt/目录下 tar zxvf jdk-8u111-linux-x64.tar.gz -C /opt/
c、目录名修改为jdk:mv /opt/jdk1.8.0_111 /opt/jdk
d、配置jdk环境
vi /etc/profile
添加:
export JAVA_HOME=/opt/jdk
export JRE_HOME=/opt/jdk/jre
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASSPATH=.:/jre/lib/dt.jar:/lib/tools.jar:/lib
export JAVA_HOME JRE_HOME PATH CLASSPATH
        java -version 查看java版本是否正确
    2、安装mysql
        a、下载 mysql www.oracle.com
b、下载地址 http://dev.mysql.com/downloads/mysql/
c、解压到/usr/local/目录下 tar zxvf mysql-5.7.16-linux-glibc2.5-x86_64.tar.gz -C /usr/local/
d、改名为 mysql: mv mysql-5.7.16-linux-glibc2.5-x86_64 mysql
e、建立用户组:groupadd mysql
f、建立用户mysql:useradd -r -g mysql -s /bin/false mysql  #设置-s /bin/false表示mysql不能作为登入用户
g、更改mysql目录的拥有者权限:
   cd mysql/
   mkdir data    #作为存放数据的目录
   chown -R mysql . 
   chgrp -R mysql .
安装依赖包:yum install libaio
h、安装mysql: ./bin/mysqld --initialize --user=mysql --basedir=/usr/local/mysql --datadir=/usr/local/mysql/data
   初始化成功后会生成一个初始密码:lYFUkH.E>2TF(每次都不一样,依据实际的来)
   bin/mysql_ssl_rsa_setup --basedir=/usr/local/mysql --datadir=/usr/local/mysql/data
i、配置权限:
chown -R root /usr/local/mysql/
chown -R mysql /usr/local/mysql/data/
j、进行配置:
将 my.cnf复制到 /etc/目录下
添加如下内容:
[mysqld]
basedir = /usr/local/mysql
datadir = /usr/local/mysql/data
socket=/tmp/mysql.sock
user=mysql
bind-address=0.0.0.0
sql_mode=NO_ENGINE_SUBSTITUTION,STRICT_TRANS_TABLES
[mysqld_safe]
log-error=/usr/local/mysql/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid


my.cnf中添加 bind-address= 0.0.0.0 是为了防止某些服务器采用ipv6
k、配置mysql开机启动兵启动服务
     mkdir /etc/init.d/mysql
     cp support-files/mysql.server /etc/init.d/mysqld (建立mysqld服务)
     service mysqld start
     chkconfig mysqld on
k、修改密码
     使用 mysql -uroot -p
     输入初始化生成的密码进入后
第一次进入通过:set password = password('123456'); 将密码修改成 123456
l、设置Mysql远程访问权限:

grant all privileges on *.* to 'root'@'%' identified by 'wendy197626' with grant option;
flush privileges; 

   3、安装完JDK和Mysql之后修改整体的环境变量:
     vi /etc/profile
export MYSQL_HOME=/opt/mysql
export JAVA_HOME=/opt/jdk
export JRE_HOME=/opt/jdk/jre
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$MYSQL_HOME/bin
export CLASSPATH=.:/jre/lib/dt.jar:/lib/tools.jar:/lib
export JAVA_HOME JRE_HOME PATH CLASSPATH MYSQL_HOME
     保存并更新环境 source /etc/profile
   4、安装hadoop2.7.3 (一主两从也就是一台namenode两台datanode)
a、下载地址:https://hadoop.apache.org/releases.html
b、解压到/opt/目录下 tar zxvf ~/soft/hadoop.tar.gz -C /opt/ 
解压后目录名修改为hadoop:mv /opt/hadoop-2.7.3 /opt/hadoop
c、配置hadoop环境
第一步:
       在/opt/ 建立数据存储目录
cd /opt/hadoop
mkdir tmp
mkdir dfs
mkdir dfs/data
mkdir dfs/name
mkdir journaldata (暂时不需要)
第二步:
参数配置:
       cd /opt/hadoop/etc/hadoop
配置文件在:/opt/hadoop/etc/hadoop 一共7个主要文件
1)修改:vi /opt/hadoop/etc/hadoop/hadoop-env.sh
#头部添加如下内容:
export JAVA_HOME=/opt/jdk
export HADOOP_HOME=/opt/hadoop
export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC"
2)修改:vi /opt/hadoop/etc/hadoop/yarn-env.sh 
#头部添加如下内容:
export JAVA_HOME=/opt/jdk
3)修改:vi /opt/hadoop/etc/hadoop/core-site.xml 
<configuration>
#中间添加如下内容
<property>
<name>hadoop.tmp.dir</name>
<value>file:/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>


4)修改:vi /opt/hadoop/etc/hadoop/hdfs-site.xml (dfs.replication表示数据副本数量,必须小于集群节点数)
<configuration>
#中间添加如下内容
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/opt/hadoop/dfs/name</value>
</property>
<property>
 <name>dfs.datanode.data.dir</name>
 <value>file:/opt/hadoop/dfs/data</value>
 </property>
<property>
 <name>dfs.replication</name>
 <value>2</value>
</property>
</configuration>


5)修改:vi /opt/hadoop/etc/hadoop/mapred-site.xml 
<configuration>
#中间添加如下内容 (启动方式yarn)
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>
</configuration>




6)修改:vi /opt/hadoop/etc/hadoop/yarn-site.xml
<configuration>
#中间添加如下内容 
 <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
 </property>
</configuration>


7)修改:vi /opt/hadoop/etc/hadoop/slaves集群配置
删除默认的localhost,增加从节点机器名或IP地址(按行)


d、环境配置
vi /etc/profile
添加如下内容(没有的部分)
HADOOP_PREFIX=/opt/hadoop
export HADOOP_PREFIX
export HADOOP_HOME=/opt/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export MYSQL_HOME=/usr/local/mysql
export JAVA_HOME=/opt/jdk
export JRE_HOME=/opt/jdk/jre
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$MYSQL_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export CLASSPATH=.:/jre/lib/dt.jar:/lib/tools.jar:/lib
export JAVA_HOME JRE_HOME PATH CLASSPATH MYSQL_HOME HADOOP_HOME


保存后,更新环境(确保每台机器的配置完全一致哦)
source /etc/profile
e、启动Hadoop 
1)将本机配置好的hadoop完整复制到其余机器的 /opt/hadoop 目录下
scp -r /opt/hadoop 节点机名:/opt/hadoop
       2)格式化namenode
       /opt/hadoop/bin/hdfs namenode –format
3)启动服务
/opt/hadoop/sbin/start-all.sh


f、用 jps命令查看slave
NameNode
DataNode
Jps Master
  用 jps命令查看Master
NodeManager
ResourceManager
SecondaryNameNode
  用hadoop fs -ls / (查看目录)
  用hadoop fs -mkdir /input (建立目录)
  用hadoop fs -put word.txt /input (存储文件word.txt)
  用hadoop jar wordcount.jar wordcount /input/word.txt /output (执行一个小任务看看:))

g、在浏览器中输入:http://120.92.50.143:8088/ 即可看到YARN的ResourceManager的界面。注意:默认端口是8088,


h、大功告成!


        作者小白救星2016-12-06于杭州,有任何疑问请与我联系 QQ 99923309 

这篇关于hadoop完全分布式手动安装(一主多从centos linux各版本均试验成功,文档完整无一遗漏)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/842376

相关文章

Jsoncpp的安装与使用方式

《Jsoncpp的安装与使用方式》JsonCpp是一个用于解析和生成JSON数据的C++库,它支持解析JSON文件或字符串到C++对象,以及将C++对象序列化回JSON格式,安装JsonCpp可以通过... 目录安装jsoncppJsoncpp的使用Value类构造函数检测保存的数据类型提取数据对json数

Linux磁盘分区、格式化和挂载方式

《Linux磁盘分区、格式化和挂载方式》本文详细介绍了Linux系统中磁盘分区、格式化和挂载的基本操作步骤和命令,包括MBR和GPT分区表的区别、fdisk和gdisk命令的使用、常见的文件系统格式以... 目录一、磁盘分区表分类二、fdisk命令创建分区1、交互式的命令2、分区主分区3、创建扩展分区,然后

mac安装redis全过程

《mac安装redis全过程》文章内容主要介绍了如何从官网下载指定版本的Redis,以及如何在自定义目录下安装和启动Redis,还提到了如何修改Redis的密码和配置文件,以及使用RedisInsig... 目录MAC安装Redis安装启动redis 配置redis 常用命令总结mac安装redis官网下

Linux中chmod权限设置方式

《Linux中chmod权限设置方式》本文介绍了Linux系统中文件和目录权限的设置方法,包括chmod、chown和chgrp命令的使用,以及权限模式和符号模式的详细说明,通过这些命令,用户可以灵活... 目录设置基本权限命令:chmod1、权限介绍2、chmod命令常见用法和示例3、文件权限详解4、ch

Linux内核之内核裁剪详解

《Linux内核之内核裁剪详解》Linux内核裁剪是通过移除不必要的功能和模块,调整配置参数来优化内核,以满足特定需求,裁剪的方法包括使用配置选项、模块化设计和优化配置参数,图形裁剪工具如makeme... 目录简介一、 裁剪的原因二、裁剪的方法三、图形裁剪工具四、操作说明五、make menuconfig

Golang使用etcd构建分布式锁的示例分享

《Golang使用etcd构建分布式锁的示例分享》在本教程中,我们将学习如何使用Go和etcd构建分布式锁系统,分布式锁系统对于管理对分布式系统中共享资源的并发访问至关重要,它有助于维护一致性,防止竞... 目录引言环境准备新建Go项目实现加锁和解锁功能测试分布式锁重构实现失败重试总结引言我们将使用Go作

Linux使用nohup命令在后台运行脚本

《Linux使用nohup命令在后台运行脚本》在Linux或类Unix系统中,后台运行脚本是一项非常实用的技能,尤其适用于需要长时间运行的任务或服务,本文我们来看看如何使用nohup命令在后台... 目录nohup 命令简介基本用法输出重定向& 符号的作用后台进程的特点注意事项实际应用场景长时间运行的任务服

Redis分布式锁使用及说明

《Redis分布式锁使用及说明》本文总结了Redis和Zookeeper在高可用性和高一致性场景下的应用,并详细介绍了Redis的分布式锁实现方式,包括使用Lua脚本和续期机制,最后,提到了RedLo... 目录Redis分布式锁加锁方式怎么会解错锁?举个小案例吧解锁方式续期总结Redis分布式锁如果追求

什么是cron? Linux系统下Cron定时任务使用指南

《什么是cron?Linux系统下Cron定时任务使用指南》在日常的Linux系统管理和维护中,定时执行任务是非常常见的需求,你可能需要每天执行备份任务、清理系统日志或运行特定的脚本,而不想每天... 在管理 linux 服务器的过程中,总有一些任务需要我们定期或重复执行。就比如备份任务,通常会选在服务器资

SpringBoot3集成swagger文档的使用方法

《SpringBoot3集成swagger文档的使用方法》本文介绍了Swagger的诞生背景、主要功能以及如何在SpringBoot3中集成Swagger文档,Swagger可以帮助自动生成API文档... 目录一、前言1. API 文档自动生成2. 交互式 API 测试3. API 设计和开发协作二、使用