hadoop2.7.5安装使用(一)

2023-12-03 23:20
文章标签 安装 使用 hadoop2.7

本文主要是介绍hadoop2.7.5安装使用(一),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用centos6.5虚拟机安装ip:192.168.0.31

创建目录

/opt --父目录

/opt/modules  --存放软件的安装目录

/opt/softwares   --存放软件包(tar,zip,bin

/opt/tools --存储工具目录(eclipse等)

/opt/data  --存储测试数据

/home/hadoop --存储工具盒测数据目录


Apache Hadoop 单机模式安装

卸载旧的jdk

# rpm -qa|grep java    

一般将获得如下信息:      

tzdata-java-2013g-1.el6.noarch

java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64 

java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64

<3>卸载OPENJDK

rpm -e --nodeps tzdata-java-2013g-1.el6.noarch

rpm -e --nodeps java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64

rpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64

 

1)首先安装jdk

tar -zxvf jdk-8u73-linux-x64.tar.gz

mv jdk1.8.0_73 /opt/modules/  

vi /etc/profile 

#java  

export JAVA_HOME=/opt/modules/jdk1.8.0_73

export JRE_HOME=/opt/modules/jdk1.8.0_73/jre

export CLASSPATH=$JAVA_HOME/lib

export PATH=:$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

source /etc/profile 

java -version

 

2)配置SSH无密码登录

注:ssh 用户名@主机名 ,如果直接ssh 主机名,它会以你那台机器的当前用户登录,所以另一台机器要有同样的用户。从一台Linux主机登录到另一台Linux主机上(或发送一条指令到另外的机器上执行),如果集群有很多台机器,你挨个输密码肯定不行,所以要配置SSH无密码登录。

# 创建新用户hadoop

useradd -m hadoop -s /bin/bash

# 设置密码

passwd hadoop

 

#安装openssh-server


这样则不需要安装,否则:

yum install openssh-clients

yum install openssh-serve

 

切换hadoop用户cd回车到自己的home执行:

ssh-keygen -t rsa #多次回车生成秘钥

cd .ssh #进到隐藏目录ll

cp id_rsa.pub authorized_keys

chmod 600 ./authorized_keys #修改秘钥权限

#检测是否配置成功

ssh localhost

 

3)安装Hadoop2.7.5

su root

tar -zxvf hadoop-2.7.5.tar.gz

mv hadoop-2.7.5 /opt/modules/

chown -R hadoop:hadoop /opt/modules/jdk1.8.0_161/

chown -R hadoop:hadoop /opt/modules/hadoop-2.7.5/

配置环境变量vi  /etc/profile

#hadoop 

export HADOOP_HOME=/opt/Hadoop/hadoop-2.7.5 

export PATH=$PATH:$HADOOP_HOME/sbin  

export PATH=$PATH:$HADOOP_HOME/bin

 

source /etc/profile

测试:

修改/opt/modules/hadoop-2.7.5/etc/hadoop下的hadoop-env.sh

export JAVA_HOME=${JAVA_HOME}#将这个改成JDK路径,如下

export JAVA_HOME=/opt/modules/jdk1.8.0_161

export HADOOP_CONF_DIR=/opt/modules/hadoop-2.7.5/etc/hadoop

source ./hadoop-env.sh

伪分布式安装:

修改/opt/modules/hadoop-2.7.5/etc/hadoop/core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/opt/data/tmp</value>

</property>

</configuration>

 

修改hdfs-site.xml(去掉注释)

<configuration>

<property><!--设置副本数1,不写默认是3-->  

<name>dfs.replication</name>  

<value>1</value>  

</property>

<property><!--权限检查关闭-->

<name>dfs.permissions</name>  

<value>false</value>  

</property>

</configuration>

 

拷贝mapred-site.xml.template一份,修改为mapred-site.xml

 cp mapred-site.xml.template mapred-site.xml 

加入

<configuration>
<property>  
<name>mapreduce.framework.name</name>  
<value>yarn</value>  
</property>
 
<property>
<name>mapreduce.job.tracker</name>
<value>hdfs://192.168.0.31:9001</value>
<final>true</final>
</property>
</configuration>

 

修改yarn-site.xml

<configuration>
<property>  
  <name>yarn.nodemanager.aux-services</name>  
  <value>mapreduce_shuffle</value>  
</property>
<property>  
    <name>yarn.resourcemanager.address</name>  
    <value>192.168.0.31:8032</value>  
  </property>  
  <property>  
    <name>yarn.resourcemanager.scheduler.address</name>  
    <value>192.168.0.31:8030</value>  
  </property>  
  <property>  
    <name>yarn.resourcemanager.resource-tracker.address</name>  
    <value>192.168.0.31:8031</value>  
  </property>
</configuration>


格式化hdfs

hdfs namenode -format  


切换hadoop用户


启动hdfs

start-dfs.sh 

 

启动yarn

start-yarn.sh  

 

查看是否成功启动



访问http://192.168.0.31:8042

http://192.168.0.31:50070

 

三种启停方式:

第一种 Sbin目录下:

./start-all.sh 

./stop-all.sh 

 第二种

./start-dfs.sh  ./start-yarn.sh 

./stop-dfs.sh  ./stop-yarn.sh 

注意tmp 和log的权限可能导致hadoop用户不能启动5个守护进程

第三种 开启

hadoop-daemon.sh start namenode

hadoop-daemon.sh start datanode

hadoop-daemon.sh start secondarynamenode

hadoop-daemon.sh start jobtracker

hadoop-daemon.sh start tasktracker

停止:

hadoop-daemon.sh stop jobtracker

hadoop-daemon.sh stop tasktracker

hadoop-daemon.sh stop namenode

hadoop-daemon.sh stop datanode

hadoop-daemon.sh stop secondarynamenode


Log分为两种:

1)log结尾的日志

通过log4j日志记录格式进行记录的日志,采用的日常滚动文件后缀策略来命名。内容比较全。

 

2)out结尾的日志

记录标准输出和标准错误的日志,内容比较少。一般不怎么看。默认情况,系统保留最新的5个日志文件。

 

日志文件的存储位置在 hadoop-env.sh中HADOOP_LOG_DIR配置






这篇关于hadoop2.7.5安装使用(一)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/451241

相关文章

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

Spring Security简介、使用与最佳实践

《SpringSecurity简介、使用与最佳实践》SpringSecurity是一个能够为基于Spring的企业应用系统提供声明式的安全访问控制解决方案的安全框架,本文给大家介绍SpringSec... 目录一、如何理解 Spring Security?—— 核心思想二、如何在 Java 项目中使用?——

springboot中使用okhttp3的小结

《springboot中使用okhttp3的小结》OkHttp3是一个JavaHTTP客户端,可以处理各种请求类型,比如GET、POST、PUT等,并且支持高效的HTTP连接池、请求和响应缓存、以及异... 在 Spring Boot 项目中使用 OkHttp3 进行 HTTP 请求是一个高效且流行的方式。

Java使用Javassist动态生成HelloWorld类

《Java使用Javassist动态生成HelloWorld类》Javassist是一个非常强大的字节码操作和定义库,它允许开发者在运行时创建新的类或者修改现有的类,本文将简单介绍如何使用Javass... 目录1. Javassist简介2. 环境准备3. 动态生成HelloWorld类3.1 创建CtC

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

Java使用jar命令配置服务器端口的完整指南

《Java使用jar命令配置服务器端口的完整指南》本文将详细介绍如何使用java-jar命令启动应用,并重点讲解如何配置服务器端口,同时提供一个实用的Web工具来简化这一过程,希望对大家有所帮助... 目录1. Java Jar文件简介1.1 什么是Jar文件1.2 创建可执行Jar文件2. 使用java

C#使用Spire.Doc for .NET实现HTML转Word的高效方案

《C#使用Spire.Docfor.NET实现HTML转Word的高效方案》在Web开发中,HTML内容的生成与处理是高频需求,然而,当用户需要将HTML页面或动态生成的HTML字符串转换为Wor... 目录引言一、html转Word的典型场景与挑战二、用 Spire.Doc 实现 HTML 转 Word1

Java中的抽象类与abstract 关键字使用详解

《Java中的抽象类与abstract关键字使用详解》:本文主要介绍Java中的抽象类与abstract关键字使用详解,本文通过实例代码给大家介绍的非常详细,感兴趣的朋友跟随小编一起看看吧... 目录一、抽象类的概念二、使用 abstract2.1 修饰类 => 抽象类2.2 修饰方法 => 抽象方法,没有

MyBatis ParameterHandler的具体使用

《MyBatisParameterHandler的具体使用》本文主要介绍了MyBatisParameterHandler的具体使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参... 目录一、概述二、源码1 关键属性2.setParameters3.TypeHandler1.TypeHa

Spring 中的切面与事务结合使用完整示例

《Spring中的切面与事务结合使用完整示例》本文给大家介绍Spring中的切面与事务结合使用完整示例,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考... 目录 一、前置知识:Spring AOP 与 事务的关系 事务本质上就是一个“切面”二、核心组件三、完