hadoop 安装配置启动

2024-09-05 23:58
文章标签 配置 安装 启动 hadoop

本文主要是介绍hadoop 安装配置启动,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. Ubuntu12.04基本设置

   
   1) 设置与Windows共享(通过hgfs)
   2) 设置root密码
      sudo passwd root
   3) 设置root登录
      vim /etc/lightdm/lightdm.conf
      在最后添加一行:greeter-show-manual-login=true
   3) #adduser test  
      #passwd test
      #mkdir -p /home/test
   4) 查看我是谁
      whoami

2. 安装组件

   $ sudo apt-get install ssh
   $ sudo apt-get install rsync

3. 下载解压JDK (1.7)至/opt目录下

4. 下载解压Hadoop (2.6.4)/opt目录下

5. 增加JDK和Hadoop Path到/root/.bashrc和当用户的~/.bashrc中

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. export JAVA_HOME=/opt/jdk1.7.0_79  
  2. export HADOOP_HOME=/opt/hadoop-2.6.4  
  3. export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin  
  4.   
  5. # improve Could not resolve hostname library: Name or service not known  
  6. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native  
  7. export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"  

   

      如果把HADOOP_OPTS配置为:

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"  

      则会出现如下错误:       

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable  

6. hadoop_env.sh (JAVA_HOME, HADOOP_PREFIX)

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. # set to the root of your Java installation  
  2. export JAVA_HOME=/opt/jdk1.7.0_79  
  3.   
  4. # Assuming your installation directory is /opt/hadoop-2.6.4  
  5. export HADOOP_PREFIX=/opt/hadoop-2.6.4  

   注:以上安装都以root用户执行

7. 实例测试

7.1 单机模式

 (不需要做任何配置,但不启动任何dfs和mapreduce daemon进程)
  计算在这些.xml文件中总共有多少个configuration
  ~$ mkdir input
  ~$ cp /opt/hadoop-2.6.4/etc/hadoop/*.xml input
  ~$ hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'configuration'

  ~$ cat output/*


  查看debug信息(即代码中LOG.debug打印的信息):

   test@ubuntu:~/hadoop$ export HADOOP_ROOT_LOGGER=DEBUG,console
   test@ubuntu:~/hadoop$ hadoop fs -text /test/data/origz/access.log.gz


7.2 伪分布式模式

7.2.1 配置环境

1)etc/hadoop/core-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.       
  3.     <!-- set the host of namenode residing -->     
  4.     <property>  
  5.         <name>fs.defaultFS</name>  
  6.         <value>hdfs://localhost:9000</value>  
  7.     </property>  
  8.       
  9.       
  10.     <!-- set the position of dfs directory  -->  
  11.     <property>  
  12.         <name>hadoop.tmp.dir</name>  
  13.         <value>/home/test/hadoop/tmp</value>   
  14.     </property>  
  15. </configuration>  

2)etc/hadoop/hdfs-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>dfs.replication</name>  
  4.         <value>1</value>  
  5.     </property>  
  6. </configuration>  

3)ssh免密码登录
   ~$ssh-keygen (一直默认回车)
   ~$cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
   ~$ssh localhost (应该无密码)


7.2.2 在本地运行MapReduce Job

1)格式化文件系统
   $ hdfs namenode -format
  
   生成的dfs文件夹位于:/home/test/hadoop/tmp 


2)启动NameNode daemon和DataNode daemon
   $ start-dfs.sh


   hadoop daemon log输出目录为$HADOOP_LOG_DIR, 默认为$HADOOP_HOME/logs
   给test用户授与/opt/hadoop-2.6.4权限
   sudo chown -hR test /opt/hadoop-2.6.4
   
   可通过jps查看到以下JVM进程:
   11340 SecondaryNameNode
   9927 NameNode
   10142 DataNode


3) 通过Web界面来查看NameNode运行状况,默认为:
   http://localhost:50070
   http://192.168.4.91:50070


4)创建执行MapReduce Job需要的HDFS目录
   $hdfs dfs -mkdir /user
   $hdfs dfs -mkdir /user/<username>


   error:mkdir: Cannot create directory /user. Name node is in safe mode.
   solution:hdfs  dfsadmin -safemode leave


5)把输入文件copy到分布式文件系统
   $hdfs dfs -put /opt/hadoop-2.6.4/etc/hadoop input


6)运行例子程序
   $hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+' 


7)检查输出文件
   把输出文件从分布式文件系统copy到本地文件系统,然后查看
   $hdfs dfs -get output output
   $cat output/*
   或者
   $hdfs dfs -cat output/*


8) 停止NameNode daemon和DataNode daemon
   $stop-dfs.sh

7.2.3 在YARN上运行MapReduce Job

1) 配置环境
   在【7.2.1 配置环境】的基础上增加如下配置
(1)etc/hadoop/mapred-site.xml:

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>mapreduce.framework.name</name>  
  4.         <value>yarn</value>  
  5.     </property>  
  6. </configuration>  


(2)etc/hadoop/yarn-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>yarn.nodemanager.aux-services</name>  
  4.         <value>mapreduce_shuffle</value>  
  5.     </property>  
  6. </configuration>  


2)格式化文件系统
   $ hdfs namenode -format
  
   生成的dfs文件夹位于:/home/test/hadoop/tmp 


3)启动NameNode daemon和DataNode daemon
   $ start-dfs.sh


   hadoop daemon log输出目录为$HADOOP_LOG_DIR, 默认为$HADOOP_HOME/logs
   给test用户授与/opt/hadoop-2.6.4权限
   sudo chown -hR test /opt/hadoop-2.6.4
   
   可通过jps查看到以下JVM进程:
   11340 SecondaryNameNode
   9927 NameNode
   10142 DataNode


4) 通过Web界面来查看NameNode运行状况,默认为:
   http://localhost:50070
   http://192.168.4.91:50070


5)创建执行MapReduce Job需要的HDFS目录
   $hdfs dfs -mkdir /user
   $hdfs dfs -mkdir /user/<username>


6)启动ResourceManager daemon和NodeManager daemon
   $start-yarn.sh


7) 通过Web界面来查看ResourceManager运行状况,默认为:
   http://localhost:8088
   http://192.168.4.91:8088


8)把输入文件copy到分布式文件系统
   $hdfs dfs -put /opt/hadoop-2.6.4/etc/hadoop input


9)运行例子程序
   $hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+' 


10)检查输出文件
   把输出文件从分布式文件系统copy到本地文件系统,然后查看
   $hdfs dfs -get output output
   $cat output/*
   或者
   $hdfs dfs -cat output/*

11)$stop-yarn.sh

12)$stop-dfs.sh


这篇关于hadoop 安装配置启动的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1140422

相关文章

Python安装时常见报错以及解决方案

《Python安装时常见报错以及解决方案》:本文主要介绍在安装Python、配置环境变量、使用pip以及运行Python脚本时常见的错误及其解决方案,文中介绍的非常详细,需要的朋友可以参考下... 目录一、安装 python 时常见报错及解决方案(一)安装包下载失败(二)权限不足二、配置环境变量时常见报错及

Android里面的Service种类以及启动方式

《Android里面的Service种类以及启动方式》Android中的Service分为前台服务和后台服务,前台服务需要亮身份牌并显示通知,后台服务则有启动方式选择,包括startService和b... 目录一句话总结:一、Service 的两种类型:1. 前台服务(必须亮身份牌)2. 后台服务(偷偷干

SpringBoot+MyBatis-Flex配置ProxySQL的实现步骤

《SpringBoot+MyBatis-Flex配置ProxySQL的实现步骤》本文主要介绍了SpringBoot+MyBatis-Flex配置ProxySQL的实现步骤,文中通过示例代码介绍的非常详... 目录 目标 步骤 1:确保 ProxySQL 和 mysql 主从同步已正确配置ProxySQL 的

Spring Boot整合log4j2日志配置的详细教程

《SpringBoot整合log4j2日志配置的详细教程》:本文主要介绍SpringBoot项目中整合Log4j2日志框架的步骤和配置,包括常用日志框架的比较、配置参数介绍、Log4j2配置详解... 目录前言一、常用日志框架二、配置参数介绍1. 日志级别2. 输出形式3. 日志格式3.1 PatternL

配置springboot项目动静分离打包分离lib方式

《配置springboot项目动静分离打包分离lib方式》本文介绍了如何将SpringBoot工程中的静态资源和配置文件分离出来,以减少jar包大小,方便修改配置文件,通过在jar包同级目录创建co... 目录前言1、分离配置文件原理2、pom文件配置3、使用package命令打包4、总结前言默认情况下,

MySQL8.2.0安装教程分享

《MySQL8.2.0安装教程分享》这篇文章详细介绍了如何在Windows系统上安装MySQL数据库软件,包括下载、安装、配置和设置环境变量的步骤... 目录mysql的安装图文1.python访问网址2javascript.点击3.进入Downloads向下滑动4.选择Community Server5.

Windows设置nginx启动端口的方法

《Windows设置nginx启动端口的方法》在服务器配置与开发过程中,nginx作为一款高效的HTTP和反向代理服务器,被广泛应用,而在Windows系统中,合理设置nginx的启动端口,是确保其正... 目录一、为什么要设置 nginx 启动端口二、设置步骤三、常见问题及解决一、为什么要设置 nginx

springboot启动流程过程

《springboot启动流程过程》SpringBoot简化了Spring框架的使用,通过创建`SpringApplication`对象,判断应用类型并设置初始化器和监听器,在`run`方法中,读取配... 目录springboot启动流程springboot程序启动入口1.创建SpringApplicat

树莓派启动python的实现方法

《树莓派启动python的实现方法》本文主要介绍了树莓派启动python的实现方法,文中通过图文介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录一、RASPBerry系统设置二、使用sandroidsh连接上开发板Raspberry Pi三、运

CentOS系统Maven安装教程分享

《CentOS系统Maven安装教程分享》本文介绍了如何在CentOS系统中安装Maven,并提供了一个简单的实际应用案例,安装Maven需要先安装Java和设置环境变量,Maven可以自动管理项目的... 目录准备工作下载并安装Maven常见问题及解决方法实际应用案例总结Maven是一个流行的项目管理工具