hadoop 安装配置启动

2024-09-05 23:58
文章标签 配置 安装 启动 hadoop

本文主要是介绍hadoop 安装配置启动,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. Ubuntu12.04基本设置

   
   1) 设置与Windows共享(通过hgfs)
   2) 设置root密码
      sudo passwd root
   3) 设置root登录
      vim /etc/lightdm/lightdm.conf
      在最后添加一行:greeter-show-manual-login=true
   3) #adduser test  
      #passwd test
      #mkdir -p /home/test
   4) 查看我是谁
      whoami

2. 安装组件

   $ sudo apt-get install ssh
   $ sudo apt-get install rsync

3. 下载解压JDK (1.7)至/opt目录下

4. 下载解压Hadoop (2.6.4)/opt目录下

5. 增加JDK和Hadoop Path到/root/.bashrc和当用户的~/.bashrc中

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. export JAVA_HOME=/opt/jdk1.7.0_79  
  2. export HADOOP_HOME=/opt/hadoop-2.6.4  
  3. export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin  
  4.   
  5. # improve Could not resolve hostname library: Name or service not known  
  6. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native  
  7. export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"  

   

      如果把HADOOP_OPTS配置为:

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"  

      则会出现如下错误:       

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable  

6. hadoop_env.sh (JAVA_HOME, HADOOP_PREFIX)

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. # set to the root of your Java installation  
  2. export JAVA_HOME=/opt/jdk1.7.0_79  
  3.   
  4. # Assuming your installation directory is /opt/hadoop-2.6.4  
  5. export HADOOP_PREFIX=/opt/hadoop-2.6.4  

   注:以上安装都以root用户执行

7. 实例测试

7.1 单机模式

 (不需要做任何配置,但不启动任何dfs和mapreduce daemon进程)
  计算在这些.xml文件中总共有多少个configuration
  ~$ mkdir input
  ~$ cp /opt/hadoop-2.6.4/etc/hadoop/*.xml input
  ~$ hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'configuration'

  ~$ cat output/*


  查看debug信息(即代码中LOG.debug打印的信息):

   test@ubuntu:~/hadoop$ export HADOOP_ROOT_LOGGER=DEBUG,console
   test@ubuntu:~/hadoop$ hadoop fs -text /test/data/origz/access.log.gz


7.2 伪分布式模式

7.2.1 配置环境

1)etc/hadoop/core-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.       
  3.     <!-- set the host of namenode residing -->     
  4.     <property>  
  5.         <name>fs.defaultFS</name>  
  6.         <value>hdfs://localhost:9000</value>  
  7.     </property>  
  8.       
  9.       
  10.     <!-- set the position of dfs directory  -->  
  11.     <property>  
  12.         <name>hadoop.tmp.dir</name>  
  13.         <value>/home/test/hadoop/tmp</value>   
  14.     </property>  
  15. </configuration>  

2)etc/hadoop/hdfs-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>dfs.replication</name>  
  4.         <value>1</value>  
  5.     </property>  
  6. </configuration>  

3)ssh免密码登录
   ~$ssh-keygen (一直默认回车)
   ~$cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
   ~$ssh localhost (应该无密码)


7.2.2 在本地运行MapReduce Job

1)格式化文件系统
   $ hdfs namenode -format
  
   生成的dfs文件夹位于:/home/test/hadoop/tmp 


2)启动NameNode daemon和DataNode daemon
   $ start-dfs.sh


   hadoop daemon log输出目录为$HADOOP_LOG_DIR, 默认为$HADOOP_HOME/logs
   给test用户授与/opt/hadoop-2.6.4权限
   sudo chown -hR test /opt/hadoop-2.6.4
   
   可通过jps查看到以下JVM进程:
   11340 SecondaryNameNode
   9927 NameNode
   10142 DataNode


3) 通过Web界面来查看NameNode运行状况,默认为:
   http://localhost:50070
   http://192.168.4.91:50070


4)创建执行MapReduce Job需要的HDFS目录
   $hdfs dfs -mkdir /user
   $hdfs dfs -mkdir /user/<username>


   error:mkdir: Cannot create directory /user. Name node is in safe mode.
   solution:hdfs  dfsadmin -safemode leave


5)把输入文件copy到分布式文件系统
   $hdfs dfs -put /opt/hadoop-2.6.4/etc/hadoop input


6)运行例子程序
   $hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+' 


7)检查输出文件
   把输出文件从分布式文件系统copy到本地文件系统,然后查看
   $hdfs dfs -get output output
   $cat output/*
   或者
   $hdfs dfs -cat output/*


8) 停止NameNode daemon和DataNode daemon
   $stop-dfs.sh

7.2.3 在YARN上运行MapReduce Job

1) 配置环境
   在【7.2.1 配置环境】的基础上增加如下配置
(1)etc/hadoop/mapred-site.xml:

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>mapreduce.framework.name</name>  
  4.         <value>yarn</value>  
  5.     </property>  
  6. </configuration>  


(2)etc/hadoop/yarn-site.xml:
[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. <configuration>  
  2.     <property>  
  3.         <name>yarn.nodemanager.aux-services</name>  
  4.         <value>mapreduce_shuffle</value>  
  5.     </property>  
  6. </configuration>  


2)格式化文件系统
   $ hdfs namenode -format
  
   生成的dfs文件夹位于:/home/test/hadoop/tmp 


3)启动NameNode daemon和DataNode daemon
   $ start-dfs.sh


   hadoop daemon log输出目录为$HADOOP_LOG_DIR, 默认为$HADOOP_HOME/logs
   给test用户授与/opt/hadoop-2.6.4权限
   sudo chown -hR test /opt/hadoop-2.6.4
   
   可通过jps查看到以下JVM进程:
   11340 SecondaryNameNode
   9927 NameNode
   10142 DataNode


4) 通过Web界面来查看NameNode运行状况,默认为:
   http://localhost:50070
   http://192.168.4.91:50070


5)创建执行MapReduce Job需要的HDFS目录
   $hdfs dfs -mkdir /user
   $hdfs dfs -mkdir /user/<username>


6)启动ResourceManager daemon和NodeManager daemon
   $start-yarn.sh


7) 通过Web界面来查看ResourceManager运行状况,默认为:
   http://localhost:8088
   http://192.168.4.91:8088


8)把输入文件copy到分布式文件系统
   $hdfs dfs -put /opt/hadoop-2.6.4/etc/hadoop input


9)运行例子程序
   $hadoop jar /opt/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+' 


10)检查输出文件
   把输出文件从分布式文件系统copy到本地文件系统,然后查看
   $hdfs dfs -get output output
   $cat output/*
   或者
   $hdfs dfs -cat output/*

11)$stop-yarn.sh

12)$stop-dfs.sh


这篇关于hadoop 安装配置启动的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1140422

相关文章

Linux内核参数配置与验证详细指南

《Linux内核参数配置与验证详细指南》在Linux系统运维和性能优化中,内核参数(sysctl)的配置至关重要,本文主要来聊聊如何配置与验证这些Linux内核参数,希望对大家有一定的帮助... 目录1. 引言2. 内核参数的作用3. 如何设置内核参数3.1 临时设置(重启失效)3.2 永久设置(重启仍生效

IDEA自动生成注释模板的配置教程

《IDEA自动生成注释模板的配置教程》本文介绍了如何在IntelliJIDEA中配置类和方法的注释模板,包括自动生成项目名称、包名、日期和时间等内容,以及如何定制参数和返回值的注释格式,需要的朋友可以... 目录项目场景配置方法类注释模板定义类开头的注释步骤类注释效果方法注释模板定义方法开头的注释步骤方法注

如何在Mac上安装并配置JDK环境变量详细步骤

《如何在Mac上安装并配置JDK环境变量详细步骤》:本文主要介绍如何在Mac上安装并配置JDK环境变量详细步骤,包括下载JDK、安装JDK、配置环境变量、验证JDK配置以及可选地设置PowerSh... 目录步骤 1:下载JDK步骤 2:安装JDK步骤 3:配置环境变量1. 编辑~/.zshrc(对于zsh

售价599元起! 华为路由器X1/Pro发布 配置与区别一览

《售价599元起!华为路由器X1/Pro发布配置与区别一览》华为路由器X1/Pro发布,有朋友留言问华为路由X1和X1Pro怎么选择,关于这个问题,本期图文将对这二款路由器做了期参数对比,大家看... 华为路由 X1 系列已经正式发布并开启预售,将在 4 月 25 日 10:08 正式开售,两款产品分别为华

SQL server配置管理器找不到如何打开它

《SQLserver配置管理器找不到如何打开它》最近遇到了SQLserver配置管理器打不开的问题,尝试在开始菜单栏搜SQLServerManager无果,于是将自己找到的方法总结分享给大家,对SQ... 目录方法一:桌面图标进入方法二:运行窗口进入方法三:查找文件路径方法四:检查 SQL Server 安

如何在pycharm安装torch包

《如何在pycharm安装torch包》:本文主要介绍如何在pycharm安装torch包方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录在pycharm安装torch包适http://www.chinasem.cn配于我电脑的指令为适用的torch包为总结在p

在PyCharm中安装PyTorch、torchvision和OpenCV详解

《在PyCharm中安装PyTorch、torchvision和OpenCV详解》:本文主要介绍在PyCharm中安装PyTorch、torchvision和OpenCV方式,具有很好的参考价值,... 目录PyCharm安装PyTorch、torchvision和OpenCV安装python安装PyTor

Python Transformer 库安装配置及使用方法

《PythonTransformer库安装配置及使用方法》HuggingFaceTransformers是自然语言处理(NLP)领域最流行的开源库之一,支持基于Transformer架构的预训练模... 目录python 中的 Transformer 库及使用方法一、库的概述二、安装与配置三、基础使用:Pi

SpringQuartz定时任务核心组件JobDetail与Trigger配置

《SpringQuartz定时任务核心组件JobDetail与Trigger配置》Spring框架与Quartz调度器的集成提供了强大而灵活的定时任务解决方案,本文主要介绍了SpringQuartz定... 目录引言一、Spring Quartz基础架构1.1 核心组件概述1.2 Spring集成优势二、J

Android Studio 配置国内镜像源的实现步骤

《AndroidStudio配置国内镜像源的实现步骤》本文主要介绍了AndroidStudio配置国内镜像源的实现步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,... 目录一、修改 hosts,解决 SDK 下载失败的问题二、修改 gradle 地址,解决 gradle