Ubuntu16配置Hadoop伪分布模式

2023-12-08 19:32

本文主要是介绍Ubuntu16配置Hadoop伪分布模式,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一:配置Java环境
0.ubuntu16安装配置jdk http://www.th7.cn/system/lin/201607/173578.shtml
1.打开/etc/environment ,配置JAVA_HOME =java安装路径
2.在etc/environment中配置PATH,追加:java安装路径/bin
二:配置Hadoop环境
1.打开/etc/environment,配置HADOOP_INSTALL,(为什么不是HADOOP_HOME,因为在HADOOP的安装目录下,bin和sbin下的文件会动态创建HADOOP_HOME),如果我们加了会干扰HADOOP_HOME的创建。
2.配置HADOOP_INSTALL=/usr/hadoop/hadoop-2.7.3(hadoop安装目录),在PATH中加入:/usr/hadoop/hadoop-2.7.3/bin:/usr/hadoop/hadoop-2.7.3/sbin ,注意冒号。
3.使用source /etc/environment使配置立即生效.
4使用echo $HADOOP_INSTALL查看配置。
5.使用hadoop version若提示JAVA_HOME不存在,存在未生效问题,可以重启。

                                Hadoop(http://www.powerxing.com/install-hadoop/)

一:Hadoop三种模式
1.独立模式
2.伪分布式
3.完全分布式
二:
处理海量数据,hadoop the definitive guide 下载地址http://download.csdn.net/detail/xinconan1992/8743847
1.存储
分布式文件系统:HDFS,hadoop distributed file system
2.运算
mapreduce,map()+reduce
三:
1.独立模式
(1)没有守护进程
(2)local FileSystem和 local MR job runner(mapreduce作业运行器?)
(3)hadoop fs -ls / 查看独立模式下的文件系统,会输出当前系统根目录下所有目录
2.伪分布模式(所有程序在一个主机上)
(0)所有文件在hadoop安装目录/etc/hadoop,配置伪分布模式先把 hadoop安装目录 cp -r /usr/hadoop/hadoop-2.7.3/etc/hadoop hadoop_pseudo
(1)配置core-site,存在多个数据节点用来存储海量数据
Name-node 名称节点 存放文件节点目录 NN ,名称节点备份 secondaryNamenode
Data-node 数据节点 DN,数据节点存在若干个备份 replication
(2)配置core_site.xml的fs.defaultFS的值是hdfs://localhost/,代表名称节点存储在本机(hdfs代表分布式文件系统)

<property><name>fs.defaultFS</name><value>hdfs://localhost/</value>
</property>
    (3)配置hdfs-site,属性dfs.replication,伪分布模式下只有一个数据节点,所有他的值是1。
<property><name>dfs.replication</name><value>1</value>
</property>
    (4)配置mapred-site,需要根据mapred-site.xml.templated创建,  cp mapred-site.xml.template mapred-site.xml   配置mapreduce.framework.name,配置mapreduce框架为yarn。
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
    (5)配置yarn-site,配置yarn.resourcemanager.hostname(资源管理器主机名称)为localhost,配置yarn.nodemanager.aux-services为mapreduce-shuffle
<property>                            <name>yarn.resourcemanager.hostname</name><value>localhost</value>
</property>
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
</property>
    (6)想在主机之间进行通信,安装ssh ,使用 **which ssh**,出现/usr/bin/ssh是不行的,这里(apt-cache search ssh)使用安装**apt-get install ssh**,安装ssh成功,which ssh-keygen出现/usr/bin/ssh-keygen(ssh: public key:给别人private key:自己用private key 加密,可以用public key解密。Public key 加密的数据只能private key解密,private key只能public key解密。)(7)使用**ssh-keygen -t rsa -P '' -f  ~/.ssh/id_rsa**  ,-t rsa 是一个算法  -P '',没有口令,-f  ~/.ssh/id_rsa是生成目录(cd ~命令是,进入用户在该系统的home目录,例如xz用户,则进入/root/xz目录)(8)**cat id_rsa.pub >> authorized_keys**  现在ssh localhost命令相当于以ssh连接到本机,exit可退出,产生known_hosts文件(9)以**ssh localhost**登陆,第一次需要输入yes,第二次不需要输入任何东西,执行hadoop文件格式化命令 **hadoop namenode -format**(10)启动hadoop,在hadoop安装目录下的etc文件夹中**start-dfs.sh --config $HADOOP_INSTALL/etc/hadoop_pseudostart-yarn.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo**(11)at http://localhost:50070/ for the namenode, http://localhost:8088/ for the resource manager, and http://localhost:19888/ for the history server. Youcan also use Java’s jps command to see whether the processes are running. (12)        **stop-yarn.shstop -dfs.sh**(13)在安装目录的etc的文件夹下可以用 **start-all.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo** 来启动,会依次启动dfs和yarn(14)配置HADOOP_CONF_DIR指定伪分布模式文件目录  **export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop_pseudo**(export设置只对当前的bash登录session有效。这是存在内存里面的。你可以写入文件一般的文件。之后source它。或者放到/etc/profile 等等的位置里,不同的地方效果不同)(15)**hadoop fs -ls /** 查看目录下文件和文件夹(16)hadoop文件系统下创建目录  **hadoop fs -mkdir /user/**   ,再查看目录 hadoop fs -ls /  ,可以看到user文件夹(17)问题1:第二次开机启动使用 start-all.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo,发现namenode不能启动,需要在home目录下新建hadoop_tmp,修改core-site文件
<property><name>hadoop.tmp.dir</name><value>/usr/local/hadoop_tmp</value><description>A base for other temporary directories.</description>
</property>
    问题2:而且HADOOP_CONF_DIR只对一次会话有效。在/etc/profile末尾中写入 **export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop_pseudo**

这篇关于Ubuntu16配置Hadoop伪分布模式的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/471074

相关文章

SpringBoot日志配置SLF4J和Logback的方法实现

《SpringBoot日志配置SLF4J和Logback的方法实现》日志记录是不可或缺的一部分,本文主要介绍了SpringBoot日志配置SLF4J和Logback的方法实现,文中通过示例代码介绍的非... 目录一、前言二、案例一:初识日志三、案例二:使用Lombok输出日志四、案例三:配置Logback一

springboot security之前后端分离配置方式

《springbootsecurity之前后端分离配置方式》:本文主要介绍springbootsecurity之前后端分离配置方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的... 目录前言自定义配置认证失败自定义处理登录相关接口匿名访问前置文章总结前言spring boot secu

一文详解SpringBoot响应压缩功能的配置与优化

《一文详解SpringBoot响应压缩功能的配置与优化》SpringBoot的响应压缩功能基于智能协商机制,需同时满足很多条件,本文主要为大家详细介绍了SpringBoot响应压缩功能的配置与优化,需... 目录一、核心工作机制1.1 自动协商触发条件1.2 压缩处理流程二、配置方案详解2.1 基础YAML

springboot简单集成Security配置的教程

《springboot简单集成Security配置的教程》:本文主要介绍springboot简单集成Security配置的教程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,... 目录集成Security安全框架引入依赖编写配置类WebSecurityConfig(自定义资源权限规则

SpringBoot中封装Cors自动配置方式

《SpringBoot中封装Cors自动配置方式》:本文主要介绍SpringBoot中封装Cors自动配置方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录SpringBoot封装Cors自动配置背景实现步骤1. 创建 GlobalCorsProperties

Spring Boot结成MyBatis-Plus最全配置指南

《SpringBoot结成MyBatis-Plus最全配置指南》本文主要介绍了SpringBoot结成MyBatis-Plus最全配置指南,包括依赖引入、配置数据源、Mapper扫描、基本CRUD操... 目录前言详细操作一.创建项目并引入相关依赖二.配置数据源信息三.编写相关代码查zsRArly询数据库数

SpringBoot配置Ollama实现本地部署DeepSeek

《SpringBoot配置Ollama实现本地部署DeepSeek》本文主要介绍了在本地环境中使用Ollama配置DeepSeek模型,并在IntelliJIDEA中创建一个Sprin... 目录前言详细步骤一、本地配置DeepSeek二、SpringBoot项目调用本地DeepSeek前言随着人工智能技

如何自定义Nginx JSON日志格式配置

《如何自定义NginxJSON日志格式配置》Nginx作为最流行的Web服务器之一,其灵活的日志配置能力允许我们根据需求定制日志格式,本文将详细介绍如何配置Nginx以JSON格式记录访问日志,这种... 目录前言为什么选择jsON格式日志?配置步骤详解1. 安装Nginx服务2. 自定义JSON日志格式各

使用Python实现网络设备配置备份与恢复

《使用Python实现网络设备配置备份与恢复》网络设备配置备份与恢复在网络安全管理中起着至关重要的作用,本文为大家介绍了如何通过Python实现网络设备配置备份与恢复,需要的可以参考下... 目录一、网络设备配置备份与恢复的概念与重要性二、网络设备配置备份与恢复的分类三、python网络设备配置备份与恢复实

Linux上设置Ollama服务配置(常用环境变量)

《Linux上设置Ollama服务配置(常用环境变量)》本文主要介绍了Linux上设置Ollama服务配置(常用环境变量),Ollama提供了多种环境变量供配置,如调试模式、模型目录等,下面就来介绍一... 目录在 linux 上设置环境变量配置 OllamPOgxSRJfa手动安装安装特定版本查看日志在