hadoop2.6快速离线部署

2024-03-31 11:08
文章标签 部署 快速 离线 hadoop2.6

本文主要是介绍hadoop2.6快速离线部署,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 关闭防火墙

-# firewall-cmd --state
-# systemctl stop firewalld.service
-# systemctl disable firewalld.service
-# vi /etc/selinux/config
SELINUX=disabled ,然后重启

2) 虚拟机IP配置

BOOTPROTO=static
IPADDR=192.168.220.20
NETMASK=255.255.255.0
GATEWAY=192.168.220.1

3) hostname设置

-# vi /etc/hosts
192.168.220.20 master
192.168.220.21 slave01
192.168.220.22 slave02

4) 卸载系统自带的openjdk

# java –version
# rpm -qa | grep java
# rpm -e  --nodeps java-1.8.0-openjdk-1.8.0.71-2.b15.el7_2.x86_64
# rpm -e  --nodeps java-1.8.0-openjdk-headless-1.8.0.71-2.b15.el7_2.x86_64

5) 安装jdk,并配置环境变量

# tar -xzvf jdk-7u79-linux-x64.tar.gz -C /usr/local/
# mv jdk1.7.0_79 jdk1.7
#vi /etc/profile 设置环境变量,添加如下3行内容
export JAVA_HOME=/usr/local/jdk1.7
export CLASSPATH=/usr/local/jdk1.7/lib
export PATH=.:$JAVA_HOME/bin:$PATH
# source /etc/profile
# java -version

6) 安装hadoop,并配置环境变量

# tar -xzvf hadoop-2.6.0-x64.tar.gz -C /usr/local/
# mv hadoop-2.6.0 hadoop2.6
#vi /etc/profile 设置环境变量:
export JAVA_HOME=/usr/local/jdk1.7
export HADOOP_HOME=/usr/local/hadoop2.6
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
# source /etc/profile
# hadoop version

7) 编辑hadoop配置文件

修改$HADOOP_HOME/etc/hadoop下的7个配置文件。
(1)core-site.xml,设置namenode主机,hadoop文件系统

<configuration><property><name>fs.default.name</name><value>hdfs://master:9000</value></property>
<property><name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop2.6/tmp</value>
</property><property> 
<name>fs.trash.interval</name> 
<value>1440</value> 
</property></configuration>

(2) 修改hdfs-site.xml,设置数据块副本数目

<configuration>
<property> 
<name>dfs.name.dir</name> 
<value>/usr/local/hadoop2.6/hdfs/name</value> 
</property> 
<property> 
<name>dfs.data.dir</name> <value>/usr/local/hadoop2.6/hdfs/data</value> 
</property>
<property><name>dfs.replication</name><value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>

(3) 修改mapred-site.xml
[cp mapred-site.xml.template mapred-site.xml]

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value>
</property>
</configuration>

(4)修改hadoop-env.sh,设置JAVA_HOME
在hadoop-env.sh中添加,本机中jdk路径

     export JAVA_HOME=/usr/local/jdk1.7

(5)修改yarn-env.sh,设置JAVA_HOME
在yarn-env.sh中添加,本机中jdk路径

   export JAVA_HOME=/usr/local/jdk1.7
export HADOOP_COMMON_LIB_NATIVE_DIR
=${HADOOP_HOME}/lib/native  
export HADOOP_OPTS
="-Djava.library.path=$HADOOP_HOME/lib"

(6)yarn-site.xml,包含MapReduce启动的配置信息。

<configuration>
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
</property>
<property><name>yarn.resourcemanager.address</name><value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:8031</value>
</property>
</configuration>

(7)slaves文件

slave01
slave02

8) 克隆master虚拟机至是slave

9) SSH免密码登录设置

10) 初始化hadoop

初始化和运行hadoop只需要在主节点进行,系统会自动登陆到从节点进行相关的操作

-# hdfs namenode –format 格式化HDFS文件系统
INFO common.Storage: Storage directory /usr/local/hadoop2.6/hdfs/name has been successfully formatted.

11) 运行hadoop

进入hadoop的sbin目录

# start-dfs.sh
# start-yarn.sh

12) 简单验证

a.主节点:jps , SecondaryNameNode、NameNode、ResourceManager;
b.从节点:jps,NodeManager、DataNode、
c.浏览器:master:50070,master:8088

13) 程序验证

使用新建的分布式平台运行wordcount程序:

# echo "Hello World.Hello hadoop." > hello.txt
# hadoop fs -mkdir -p input
# hadoop fs –ls 查看文件夹是否创建成功
# hadoop fs -put ../hello.txt input 
将本地文件上传到hdfs
# hadoop fs -ls input   查看文件是否上传成功
# hadoop fs -ls hdfs://master:9000/user/root/input 直接查看
# hadoop jar /usr/local/hadoop2.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar wordcount input output  
# hadoop fs -ls output 查看运行之后产生的文件
# hadoop fs -cat output/part-r-00000 查看运行结果

这篇关于hadoop2.6快速离线部署的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/864186

相关文章

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Nginx部署HTTP/3的实现步骤

《Nginx部署HTTP/3的实现步骤》本文介绍了在Nginx中部署HTTP/3的详细步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录前提条件第一步:安装必要的依赖库第二步:获取并构建 BoringSSL第三步:获取 Nginx

redis-sentinel基础概念及部署流程

《redis-sentinel基础概念及部署流程》RedisSentinel是Redis的高可用解决方案,通过监控主从节点、自动故障转移、通知机制及配置提供,实现集群故障恢复与服务持续可用,核心组件包... 目录一. 引言二. 核心功能三. 核心组件四. 故障转移流程五. 服务部署六. sentinel部署

Python多线程实现大文件快速下载的代码实现

《Python多线程实现大文件快速下载的代码实现》在互联网时代,文件下载是日常操作之一,尤其是大文件,然而,网络条件不稳定或带宽有限时,下载速度会变得很慢,本文将介绍如何使用Python实现多线程下载... 目录引言一、多线程下载原理二、python实现多线程下载代码说明:三、实战案例四、注意事项五、总结引

C#使用Spire.XLS快速生成多表格Excel文件

《C#使用Spire.XLS快速生成多表格Excel文件》在日常开发中,我们经常需要将业务数据导出为结构清晰的Excel文件,本文将手把手教你使用Spire.XLS这个强大的.NET组件,只需几行C#... 目录一、Spire.XLS核心优势清单1.1 性能碾压:从3秒到0.5秒的质变1.2 批量操作的优雅

Linux部署中的文件大小写问题的解决方案

《Linux部署中的文件大小写问题的解决方案》在本地开发环境(Windows/macOS)一切正常,但部署到Linux服务器后出现模块加载错误,核心原因是Linux文件系统严格区分大小写,所以本文给大... 目录问题背景解决方案配置要求问题背景在本地开发环境(Windows/MACOS)一切正常,但部署到

Mybatis-Plus 3.5.12 分页拦截器消失的问题及快速解决方法

《Mybatis-Plus3.5.12分页拦截器消失的问题及快速解决方法》作为Java开发者,我们都爱用Mybatis-Plus简化CRUD操作,尤其是它的分页功能,几行代码就能搞定复杂的分页查询... 目录一、问题场景:分页拦截器突然 “失踪”二、问题根源:依赖拆分惹的祸三、解决办法:添加扩展依赖四、分页

c++日志库log4cplus快速入门小结

《c++日志库log4cplus快速入门小结》文章浏览阅读1.1w次,点赞9次,收藏44次。本文介绍Log4cplus,一种适用于C++的线程安全日志记录API,提供灵活的日志管理和配置控制。文章涵盖... 目录简介日志等级配置文件使用关于初始化使用示例总结参考资料简介log4j 用于Java,log4c

使用Redis快速实现共享Session登录的详细步骤

《使用Redis快速实现共享Session登录的详细步骤》在Web开发中,Session通常用于存储用户的会话信息,允许用户在多个页面之间保持登录状态,Redis是一个开源的高性能键值数据库,广泛用于... 目录前言实现原理:步骤:使用Redis实现共享Session登录1. 引入Redis依赖2. 配置R

使用IDEA部署Docker应用指南分享

《使用IDEA部署Docker应用指南分享》本文介绍了使用IDEA部署Docker应用的四步流程:创建Dockerfile、配置IDEADocker连接、设置运行调试环境、构建运行镜像,并强调需准备本... 目录一、创建 dockerfile 配置文件二、配置 IDEA 的 Docker 连接三、配置 Do