Hadoop2.7 安装

2024-06-14 22:58
文章标签 安装 hadoop2.7

本文主要是介绍Hadoop2.7 安装,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Hadoop2.7 安装

参考:http://www.linuxidc.com/Linux/2015-01/112029.html

机器准备

192.168.72.130 master

192.168.72.131 slave1

192.168.72.132 slave2

192.168.72.133 slave3

目录

  1. 安装JDK
  2. 配置host文件
  3. SSH免密码登陆
  4. Hadoop安装
  5. Hadoop配置
  6. Hadoop初始化
  7. Hadoop启动
    1. 关闭防火墙测试

    SSH免密码登陆

  • 准备工作
  • 确定本机安装了ssh服务
  • 确认本机sshd的配置文件(需要root权限)
      $ vi /etc/ssh/sshd_config
      找到以下内容,并去掉注释符"#"
      RSAAuthentication yes
      PubkeyAuthentication yes
      AuthorizedKeysFile      .ssh/authorized_keys
  • 如果修改了配置文件需要重启sshd服务 (需要root权限)
      $ /sbin/service sshd restart
  • 在各个机器上生产公钥私钥。

    生成公钥和私钥代码:ssh-keygen -t rsa  (后一直回车)
       
    默认在 ~/.ssh目录生成两个文件:
        id_rsa      
    :私钥
        id_rsa.pub  
    :公钥

  • 将各个机器上的公钥集中到一起

    将各个机器上的id_rsa.pub集中到文件authorized_keys

    Cat id_rsa.pub >> authorized_keys

    并拷贝该文件至所有的~/.ssh/目录下

  • 更改权限       

    Shell代码:   chmod 700 ~/.ssh
                        chmod 600 ~/.ssh/authorized_keys  

Hadoop安装

tar -xzvf hadoop-2.7.0.tar.gz

 

配置

  • 文件hadoop-env.shyarn-env.sh

就是修改这一行内容,修改后的结果如下

    export JAVA_HOME=/usr/local/jdk

【这里的JAVA_HOME的值是jdk的安装路径。如果你那里不一样,请修改为自己的地址】

  • 文件core-site.xml

<property>
<name>fs.defaultFS</name>
<value>hdfs://cluster1</value>
</property>

【这里的值指的是默认的HDFS路径。当有多个HDFS集群同时工作时,用户如果不写集群名称,那么默认使用哪个哪?在这里指定!该值来自于hdfs-site.xml中的配置】

<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>

【这里的路径默认是NameNode、DataNode、JournalNode等存放数据的公共目录。用户也可以自己单独指定这三类节点的目录。】

  • 文件hdfs-site.xml

<configration>
<property>
<name>dfs.name.dir</name>
<value>/home/software/hadoop-2.7.0/dfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/software/hadoop-2.7.0/dfs/data</value>
<description>Comma separated list of paths on the local filesystem of a DataNode where it should store its blocks.</description>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>

</configration>

 

  • 文件mapred-site.xml

<configration>
<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>master:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>master:19888</value>

</property>
</configration>

 

  • 文件yarn-site.xml

<configration>
<property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configration>

   

  • 文件slaves

Master

Slave1

Slave2

Slave3

【指定所有的DataNode节点列表,每行一个节点名称】

Hadoop初始化

初始化,输入命令,bin/hdfs namenode -format

Hadoop启动

全部启动sbin/start-all.sh,也可以分开sbin/start-dfs.shsbin/start-yarn.sh

停止的话,输入命令,sbin/stop-all.sh

输入命令,jps,可以看到相关信息

关闭防火墙测试

关闭防火墙:输入命令,systemctl stop firewalld.service

浏览器打开http://192.168.0.182:8088/

浏览器打开http://192.168.0.182:50070/

问题

  • 无法安装成功

文件权限问题,设置好权限

  • 安装完成,启动NameNode后,JPSDataNode无法启动

运行了两次格式化,UUID出现的冲突,删除DataNode的配置的文件夹,

然后重新生成。

  • JPS时全部都是可以的,但是网页浏览是发现没有DataNode

Hosts里面解析冲突了,把hosts里面的主机名的127.0.1.1 的名字改掉    或者把那行注释掉

  • JPS没有问题,Linux虚拟机中页面没有问题,本地无法访问

    Linux防火墙没有关闭

 

附录:各个配置文件的默认配置

 

http://hadoop.apache.org/docs/r2.7.3/hadoop-project-dist/hadoop-common/core-default.xml

http://hadoop.apache.org/docs/r2.7.3/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml

http://hadoop.apache.org/docs/r2.7.3/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml

http://hadoop.apache.org/docs/r2.7.3/hadoop-yarn/hadoop-yarn-common/yarn-default.xml

这篇关于Hadoop2.7 安装的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1061743

相关文章

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Centos7安装Mongodb4

1、下载源码包 curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.2.1.tgz 2、解压 放到 /usr/local/ 目录下 tar -zxvf mongodb-linux-x86_64-rhel70-4.2.1.tgzmv mongodb-linux-x86_64-rhel70-4.2.1/

Centos7安装JDK1.8保姆版

工欲善其事,必先利其器。这句话同样适用于学习Java编程。在开始Java的学习旅程之前,我们必须首先配置好适合的开发环境。 通过事先准备好这些工具和配置,我们可以避免在学习过程中遇到因环境问题导致的代码异常或错误。一个稳定、高效的开发环境能够让我们更加专注于代码的学习和编写,提升学习效率,减少不必要的困扰和挫折感。因此,在学习Java之初,投入一些时间和精力来配置好开发环境是非常值得的。这将为我

安装nodejs环境

本文介绍了如何通过nvm(NodeVersionManager)安装和管理Node.js及npm的不同版本,包括下载安装脚本、检查版本并安装特定版本的方法。 1、安装nvm curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash 2、查看nvm版本 nvm --version 3、安装

计算机毕业设计 大学志愿填报系统 Java+SpringBoot+Vue 前后端分离 文档报告 代码讲解 安装调试

🍊作者:计算机编程-吉哥 🍊简介:专业从事JavaWeb程序开发,微信小程序开发,定制化项目、 源码、代码讲解、文档撰写、ppt制作。做自己喜欢的事,生活就是快乐的。 🍊心愿:点赞 👍 收藏 ⭐评论 📝 🍅 文末获取源码联系 👇🏻 精彩专栏推荐订阅 👇🏻 不然下次找不到哟~Java毕业设计项目~热门选题推荐《1000套》 目录 1.技术选型 2.开发工具 3.功能

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者

K8S(Kubernetes)开源的容器编排平台安装步骤详解

K8S(Kubernetes)是一个开源的容器编排平台,用于自动化部署、扩展和管理容器化应用程序。以下是K8S容器编排平台的安装步骤、使用方式及特点的概述: 安装步骤: 安装Docker:K8S需要基于Docker来运行容器化应用程序。首先要在所有节点上安装Docker引擎。 安装Kubernetes Master:在集群中选择一台主机作为Master节点,安装K8S的控制平面组件,如AP

衡石分析平台使用手册-单机安装及启动

单机安装及启动​ 本文讲述如何在单机环境下进行 HENGSHI SENSE 安装的操作过程。 在安装前请确认网络环境,如果是隔离环境,无法连接互联网时,请先按照 离线环境安装依赖的指导进行依赖包的安装,然后按照本文的指导继续操作。如果网络环境可以连接互联网,请直接按照本文的指导进行安装。 准备工作​ 请参考安装环境文档准备安装环境。 配置用户与安装目录。 在操作前请检查您是否有 sud

mac安装brew 与 HomeBrew

/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)" curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install.sh >> brew_install BREW_REPO="