hadoop之伪分布安装

2024-05-12 17:48
文章标签 分布 安装 hadoop 之伪

本文主要是介绍hadoop之伪分布安装,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

吐舌头hadoop 是大数据分布式存储与计算平台。采用HDFS体系结构(Distributed File system分布式)。

为了方便学习hadoop的伟大功能。

本人采取在VMware中安装Linux虚拟机的方式。通过配置Linux的各种环境,为hadoop学习做准备!



首先在VMware中安装Linux(本人采用centOS以下都称做centOS)操作系统。本人不做具体详解。

安装完成后,就可进行伪分布的安装:

一:设置虚拟机操作系统静态ip地址

     在centos桌面右上角的图标上,右键点击电脑图片。


点击Edit Connections。出现wired列表

选择单击edit。

配置ipv4.。


method方法为静态方式。选择Manual。

address为ip地址。

gateway为网关。(一定与本机及宿主机的一致)。点击保存


打开命令行:service network restart重启网卡。直到 ok指示。

验证:执行命令ifconfig


二:修改主机名:

命令hostname查看当前主机名:

vi /ect/sysconfig/network 修改主机名

保存退出vi

三:主机名与ip地址绑定

vi /etc/hosts在文件末尾添加一行 192.168.80.100(虚拟机ip)  hadoop(主机名)

验证:ping 主机名


四:关闭防火墙:

service iptables status 查看防火墙信息

service iptables stop  关闭防火墙


五:关闭防火墙自动运行

chkconfig --list 查看服务列表

chkconfig --list | grep iptables 查看防火墙

chkconfig iptables off  关闭防火墙自启动

验证: chkconfig --list |grep iptables


六:SSH(secure shell...)

SSH的免密码登陆:方便连接到其他主机

1)执行命令ssh-keygen -t rsa 产生密钥位于~/.ssh文件夹中(-t rsa之名算法)

2)在当前目录将产生两个文件夹。执行命令 cp id_rsa.pub authorized_keys 将公钥传递给authorized_keys文件夹中

3)验证:ssh localhost 确立连接 (通过自己连接到自己)


七:安装jdk

1)getconf LONG_BIT   查看当前Linux系统多少位。下载对应的jdk版本。建议去Oracle的官网下载! 顺便下载hadoop.tar.gz版本

2)使用工具winscp(一种使用SSH的开源的图形化SFTP客户端)主要功能:在本地与远程计算机之间安全地复制文件。将jdk.bin 与hadoop.tar.gz复制到/root/Downloads/下

3)cd /usr/local/    目录下。 rm -rf  *   (递归强制删除该目录下所有文件:目录下的文件基本无用)

4)cp /root/Downloads/* .     将jdk.bin 与hadoop.tar.gz移动到当前目录下 (!!!!不要忘了cp 最后的点。代表当前目录)

5)给jdk.bin文件授权:  chmod u+x jdk.bin      给当前用户授予jdk可操作的权限

6)./jdk.bin    解压安装jdk

7) 安装完成后 多出一个jdk1.6(当前笔者按照jdk1.6)的文件。执行命令mv jdk1.6 jdk  给文件重命名

8)配置jdk的环境变量 vi /etc/profile 

在空白处配置(笔者推荐百度具体方式)

9)环境配置完成后 source /etc/profile  更改的配置立即生效

验证: java -version查看当前java的版本信息

(可能错误:1.环境配置不正确。2:未将jdk/jre/lib 下的rt.pack解压成 rt.jar  或者jdk目录下的带.pack 的文件未解压成.jar的文件 eg: unpack200 rt.pack rt.jar命令转换)


八:安装hadoop

1)tar -zxvf hadoop.tar.gz  解压hadoop

2)解压后当前目录多出一个hadoop1.2(笔者安装的hadoop1.2)文件夹 mv hadoop1.2 hadoop  改名

3)配置环境变量 source /etc/profile 立即执行更改

4)修改hadoop的配置文件(一共4个) 位于hadoop(安装好后)的conf目录下

1.hadoop-env.sh

exportJAVA_HOME=/usr/local/jdk/                <!--笔者安装的jdk的路径-->

2.core-site.xml

<configuration>

    <property>

       <name>fs.default.name</name>

       <value>hdfs://hadoop:9000</value>        <!--hadoop代表的是当前主机名-->            

        <description>change your ownhostname</description>

    </property>

    <property>

        <name>hadoop.tmp.dir</name>

       <value>/usr/local/hadoop/tmp</value>

    </property> 

</configuration>


3.hdfs-site.xml

<configuration>

    <property>

       <name>dfs.replication</name>

        <value>1</value>

    </property>

    <property>

       <name>dfs.permissions</name>

        <value>false</value>

    </property>

</configuration>

4.mapred-site.xml

<configuration>

    <property>

       <name>mapred.job.tracker</name>

        <value>hadoop:9001</value>                       <!--hadoop代表的是当前主机名-->       

        <description>change your ownhostname</description>

    </property>

</configuration>


5)对hadoop进行格式化   hadoop namenode -format

6)启动: start-all.sh  

7)验证:命令 jps 查看当前java进程

可以看到6个java进程


至此。hadoop的伪分布式的体系结构全部完成害羞


九:先归纳总结大家在安装过程中可能错误:

1)NameNode进程没有启动成功?

  1 没有格式化

  2 4个配置文件没有改对

  3 hostname没有与ip绑定(详见第三步)

  4 SSH的免密码登陆没有配置成功

2)多次格式化hadoop也是错误的

  方法:删除hadoop/tmp文件夹。重新格式化



这篇关于hadoop之伪分布安装的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/983315

相关文章

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Centos7安装Mongodb4

1、下载源码包 curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.2.1.tgz 2、解压 放到 /usr/local/ 目录下 tar -zxvf mongodb-linux-x86_64-rhel70-4.2.1.tgzmv mongodb-linux-x86_64-rhel70-4.2.1/

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Centos7安装JDK1.8保姆版

工欲善其事,必先利其器。这句话同样适用于学习Java编程。在开始Java的学习旅程之前,我们必须首先配置好适合的开发环境。 通过事先准备好这些工具和配置,我们可以避免在学习过程中遇到因环境问题导致的代码异常或错误。一个稳定、高效的开发环境能够让我们更加专注于代码的学习和编写,提升学习效率,减少不必要的困扰和挫折感。因此,在学习Java之初,投入一些时间和精力来配置好开发环境是非常值得的。这将为我

安装nodejs环境

本文介绍了如何通过nvm(NodeVersionManager)安装和管理Node.js及npm的不同版本,包括下载安装脚本、检查版本并安装特定版本的方法。 1、安装nvm curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash 2、查看nvm版本 nvm --version 3、安装

计算机毕业设计 大学志愿填报系统 Java+SpringBoot+Vue 前后端分离 文档报告 代码讲解 安装调试

🍊作者:计算机编程-吉哥 🍊简介:专业从事JavaWeb程序开发,微信小程序开发,定制化项目、 源码、代码讲解、文档撰写、ppt制作。做自己喜欢的事,生活就是快乐的。 🍊心愿:点赞 👍 收藏 ⭐评论 📝 🍅 文末获取源码联系 👇🏻 精彩专栏推荐订阅 👇🏻 不然下次找不到哟~Java毕业设计项目~热门选题推荐《1000套》 目录 1.技术选型 2.开发工具 3.功能