Ubuntu16配置Hadoop伪分布模式

2023-12-08 19:32

本文主要是介绍Ubuntu16配置Hadoop伪分布模式,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一:配置Java环境
0.ubuntu16安装配置jdk http://www.th7.cn/system/lin/201607/173578.shtml
1.打开/etc/environment ,配置JAVA_HOME =java安装路径
2.在etc/environment中配置PATH,追加:java安装路径/bin
二:配置Hadoop环境
1.打开/etc/environment,配置HADOOP_INSTALL,(为什么不是HADOOP_HOME,因为在HADOOP的安装目录下,bin和sbin下的文件会动态创建HADOOP_HOME),如果我们加了会干扰HADOOP_HOME的创建。
2.配置HADOOP_INSTALL=/usr/hadoop/hadoop-2.7.3(hadoop安装目录),在PATH中加入:/usr/hadoop/hadoop-2.7.3/bin:/usr/hadoop/hadoop-2.7.3/sbin ,注意冒号。
3.使用source /etc/environment使配置立即生效.
4使用echo $HADOOP_INSTALL查看配置。
5.使用hadoop version若提示JAVA_HOME不存在,存在未生效问题,可以重启。

                                Hadoop(http://www.powerxing.com/install-hadoop/)

一:Hadoop三种模式
1.独立模式
2.伪分布式
3.完全分布式
二:
处理海量数据,hadoop the definitive guide 下载地址http://download.csdn.net/detail/xinconan1992/8743847
1.存储
分布式文件系统:HDFS,hadoop distributed file system
2.运算
mapreduce,map()+reduce
三:
1.独立模式
(1)没有守护进程
(2)local FileSystem和 local MR job runner(mapreduce作业运行器?)
(3)hadoop fs -ls / 查看独立模式下的文件系统,会输出当前系统根目录下所有目录
2.伪分布模式(所有程序在一个主机上)
(0)所有文件在hadoop安装目录/etc/hadoop,配置伪分布模式先把 hadoop安装目录 cp -r /usr/hadoop/hadoop-2.7.3/etc/hadoop hadoop_pseudo
(1)配置core-site,存在多个数据节点用来存储海量数据
Name-node 名称节点 存放文件节点目录 NN ,名称节点备份 secondaryNamenode
Data-node 数据节点 DN,数据节点存在若干个备份 replication
(2)配置core_site.xml的fs.defaultFS的值是hdfs://localhost/,代表名称节点存储在本机(hdfs代表分布式文件系统)

<property><name>fs.defaultFS</name><value>hdfs://localhost/</value>
</property>
    (3)配置hdfs-site,属性dfs.replication,伪分布模式下只有一个数据节点,所有他的值是1。
<property><name>dfs.replication</name><value>1</value>
</property>
    (4)配置mapred-site,需要根据mapred-site.xml.templated创建,  cp mapred-site.xml.template mapred-site.xml   配置mapreduce.framework.name,配置mapreduce框架为yarn。
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
    (5)配置yarn-site,配置yarn.resourcemanager.hostname(资源管理器主机名称)为localhost,配置yarn.nodemanager.aux-services为mapreduce-shuffle
<property>                            <name>yarn.resourcemanager.hostname</name><value>localhost</value>
</property>
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
</property>
    (6)想在主机之间进行通信,安装ssh ,使用 **which ssh**,出现/usr/bin/ssh是不行的,这里(apt-cache search ssh)使用安装**apt-get install ssh**,安装ssh成功,which ssh-keygen出现/usr/bin/ssh-keygen(ssh: public key:给别人private key:自己用private key 加密,可以用public key解密。Public key 加密的数据只能private key解密,private key只能public key解密。)(7)使用**ssh-keygen -t rsa -P '' -f  ~/.ssh/id_rsa**  ,-t rsa 是一个算法  -P '',没有口令,-f  ~/.ssh/id_rsa是生成目录(cd ~命令是,进入用户在该系统的home目录,例如xz用户,则进入/root/xz目录)(8)**cat id_rsa.pub >> authorized_keys**  现在ssh localhost命令相当于以ssh连接到本机,exit可退出,产生known_hosts文件(9)以**ssh localhost**登陆,第一次需要输入yes,第二次不需要输入任何东西,执行hadoop文件格式化命令 **hadoop namenode -format**(10)启动hadoop,在hadoop安装目录下的etc文件夹中**start-dfs.sh --config $HADOOP_INSTALL/etc/hadoop_pseudostart-yarn.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo**(11)at http://localhost:50070/ for the namenode, http://localhost:8088/ for the resource manager, and http://localhost:19888/ for the history server. Youcan also use Java’s jps command to see whether the processes are running. (12)        **stop-yarn.shstop -dfs.sh**(13)在安装目录的etc的文件夹下可以用 **start-all.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo** 来启动,会依次启动dfs和yarn(14)配置HADOOP_CONF_DIR指定伪分布模式文件目录  **export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop_pseudo**(export设置只对当前的bash登录session有效。这是存在内存里面的。你可以写入文件一般的文件。之后source它。或者放到/etc/profile 等等的位置里,不同的地方效果不同)(15)**hadoop fs -ls /** 查看目录下文件和文件夹(16)hadoop文件系统下创建目录  **hadoop fs -mkdir /user/**   ,再查看目录 hadoop fs -ls /  ,可以看到user文件夹(17)问题1:第二次开机启动使用 start-all.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo,发现namenode不能启动,需要在home目录下新建hadoop_tmp,修改core-site文件
<property><name>hadoop.tmp.dir</name><value>/usr/local/hadoop_tmp</value><description>A base for other temporary directories.</description>
</property>
    问题2:而且HADOOP_CONF_DIR只对一次会话有效。在/etc/profile末尾中写入 **export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop_pseudo**

这篇关于Ubuntu16配置Hadoop伪分布模式的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/471074

相关文章

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

NameNode内存生产配置

Hadoop2.x 系列,配置 NameNode 内存 NameNode 内存默认 2000m ,如果服务器内存 4G , NameNode 内存可以配置 3g 。在 hadoop-env.sh 文件中配置如下。 HADOOP_NAMENODE_OPTS=-Xmx3072m Hadoop3.x 系列,配置 Nam

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

wolfSSL参数设置或配置项解释

1. wolfCrypt Only 解释:wolfCrypt是一个开源的、轻量级的、可移植的加密库,支持多种加密算法和协议。选择“wolfCrypt Only”意味着系统或应用将仅使用wolfCrypt库进行加密操作,而不依赖其他加密库。 2. DTLS Support 解释:DTLS(Datagram Transport Layer Security)是一种基于UDP的安全协议,提供类似于

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

沁恒CH32在MounRiver Studio上环境配置以及使用详细教程

目录 1.  RISC-V简介 2.  CPU架构现状 3.  MounRiver Studio软件下载 4.  MounRiver Studio软件安装 5.  MounRiver Studio软件介绍 6.  创建工程 7.  编译代码 1.  RISC-V简介         RISC就是精简指令集计算机(Reduced Instruction SetCom