hadoop2.9.0 hdfs环境搭建(伪分布式)

2024-05-13 17:08

本文主要是介绍hadoop2.9.0 hdfs环境搭建(伪分布式),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 

搭建hadoop2.9.0伪分布式步骤

 

使用了centos7,jdk1.8,hadoop2.9.0  版本算是很新的了.没有使用什么古老的版本.

 

1.      查看自带的jdk,卸载centos中自带的jdk

查看:

rpm -qa |grep java

卸载:

Yum –y remove jdk___

 

2.      临时关闭防火墙

systemctl stop firewalld

 

3.      安装jdk

解压下载好的jdk,配置环境变量/etc/profile

 

因为我都是root在操作,其实是为了偷懒,随意就放在root下面了,不要学我(捂脸)

exportJAVA_HOME=/root/soft/jdk1.8.0_151

exportCLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

exportPATH=$PATH:$JAVA_HOME/bin

 

重新加载,source  /etc/profile

Java 进行安装完成的验证

4.      解压下载完成的hadoop2.9

进入解压完成的hadoop2.9 文件夹中.(其帮助文档在hadoop-2.9.0\share\doc\hadoop\index.html这里的,可以查看)

 

因为处于学习阶段,所以使用了比较新的版本,但是,只是搭建了伪分布式的hadoop

 

因为我们使用的centos,默认安装了ssh的,所以不管那么多了.

 

1.      配置hadoop中的java位置,配置的文件是在:

etc/hadoop/hadoop-env.sh 中的export JAVA_HOME=/usr/java/latest    后面的位置修改成自己现在jdk所在的目录就可以保存了

2.      验证上一步的配置完成

bin/hadoop

看到了其中的文档就说明配置没有问题,可以继续了.

3.      配置免密码登陆,首先ssh  localhost 查看登陆是否需要密码,需要的进行如下的操作(只针对本机的操作):

ssh-keygen-t rsa -P '' -f ~/.ssh/id_rsa

 cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

 chmod 0600~/.ssh/authorized_keys

 

执行完后再进行ssh localhost的验证.

4.      配置hdfs

hadoop使用hdfs作为其分布式文件系统,首先要对hdfs做相关配置。hadoop使用xml作为其配置文件的格式。

首先在etc/hadoop/core-site.xml这个文件里作如下配置:

<configuration>

    <property>

        <name>fs.defaultFS</name>

       <value>hdfs://localhost:9000</value>

    </property>

</configuration>

 

5.      etc/hadoop/hdfs-site.xml文件里作如下配置:这里配置的是datanode的个数,因为是伪分布式的,所以只能是一个

<configuration>

    <property>

       <name>dfs.replication</name>

        <value>1</value>

    </property>

</configuration>

6.      格式化文件系统

bin/hdfs namenode -format

7.      启动namenode 和datanode

 sbin/start-dfs.sh

8.      验证是否成功  http://localhost:50070/

成功的的话就能看到效果了,这就是最简单的hadoop hdfs文件系统的伪分布式搭建了.

 暂时就先写这么多,后面在写.

 

Java Framework,欢迎各位前来交流java相关
QQ群:965125360

 

这篇关于hadoop2.9.0 hdfs环境搭建(伪分布式)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/986310

相关文章

Java中的Opencv简介与开发环境部署方法

《Java中的Opencv简介与开发环境部署方法》OpenCV是一个开源的计算机视觉和图像处理库,提供了丰富的图像处理算法和工具,它支持多种图像处理和计算机视觉算法,可以用于物体识别与跟踪、图像分割与... 目录1.Opencv简介Opencv的应用2.Java使用OpenCV进行图像操作opencv安装j

mysql-8.0.30压缩包版安装和配置MySQL环境过程

《mysql-8.0.30压缩包版安装和配置MySQL环境过程》该文章介绍了如何在Windows系统中下载、安装和配置MySQL数据库,包括下载地址、解压文件、创建和配置my.ini文件、设置环境变量... 目录压缩包安装配置下载配置环境变量下载和初始化总结压缩包安装配置下载下载地址:https://d

将Python应用部署到生产环境的小技巧分享

《将Python应用部署到生产环境的小技巧分享》文章主要讲述了在将Python应用程序部署到生产环境之前,需要进行的准备工作和最佳实践,包括心态调整、代码审查、测试覆盖率提升、配置文件优化、日志记录完... 目录部署前夜:从开发到生产的心理准备与检查清单环境搭建:打造稳固的应用运行平台自动化流水线:让部署像

gradle安装和环境配置全过程

《gradle安装和环境配置全过程》本文介绍了如何安装和配置Gradle环境,包括下载Gradle、配置环境变量、测试Gradle以及在IntelliJIDEA中配置Gradle... 目录gradle安装和环境配置1 下载GRADLE2 环境变量配置3 测试gradle4 设置gradle初始化文件5 i

java如何分布式锁实现和选型

《java如何分布式锁实现和选型》文章介绍了分布式锁的重要性以及在分布式系统中常见的问题和需求,它详细阐述了如何使用分布式锁来确保数据的一致性和系统的高可用性,文章还提供了基于数据库、Redis和Zo... 目录引言:分布式锁的重要性与分布式系统中的常见问题和需求分布式锁的重要性分布式系统中常见的问题和需求

SpringBoot操作spark处理hdfs文件的操作方法

《SpringBoot操作spark处理hdfs文件的操作方法》本文介绍了如何使用SpringBoot操作Spark处理HDFS文件,包括导入依赖、配置Spark信息、编写Controller和Ser... 目录SpringBoot操作spark处理hdfs文件1、导入依赖2、配置spark信息3、cont

Golang使用etcd构建分布式锁的示例分享

《Golang使用etcd构建分布式锁的示例分享》在本教程中,我们将学习如何使用Go和etcd构建分布式锁系统,分布式锁系统对于管理对分布式系统中共享资源的并发访问至关重要,它有助于维护一致性,防止竞... 目录引言环境准备新建Go项目实现加锁和解锁功能测试分布式锁重构实现失败重试总结引言我们将使用Go作

Mycat搭建分库分表方式

《Mycat搭建分库分表方式》文章介绍了如何使用分库分表架构来解决单表数据量过大带来的性能和存储容量限制的问题,通过在一对主从复制节点上配置数据源,并使用分片算法将数据分配到不同的数据库表中,可以有效... 目录分库分表解决的问题分库分表架构添加数据验证结果 总结分库分表解决的问题单表数据量过大带来的性能

Java汇编源码如何查看环境搭建

《Java汇编源码如何查看环境搭建》:本文主要介绍如何在IntelliJIDEA开发环境中搭建字节码和汇编环境,以便更好地进行代码调优和JVM学习,首先,介绍了如何配置IntelliJIDEA以方... 目录一、简介二、在IDEA开发环境中搭建汇编环境2.1 在IDEA中搭建字节码查看环境2.1.1 搭建步

Redis分布式锁使用及说明

《Redis分布式锁使用及说明》本文总结了Redis和Zookeeper在高可用性和高一致性场景下的应用,并详细介绍了Redis的分布式锁实现方式,包括使用Lua脚本和续期机制,最后,提到了RedLo... 目录Redis分布式锁加锁方式怎么会解错锁?举个小案例吧解锁方式续期总结Redis分布式锁如果追求