hadoop套件的安装与配置个人笔记

2024-06-17 00:08

本文主要是介绍hadoop套件的安装与配置个人笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

hadoop的官网

hadoop官网

下载并安装hadoop(本人使用的是2.10.1)

  1. 下载:hadoop2.10.1
  2. 安装:tar -zxvf 解压文件
  3. 在linux 环境下也可以 直接用 wget http地址 的形式下载

配置hadoop及启动

  • 集群最好改动一下hadoop的java配置地址:准备启动 Hadoop 群集,解包下载的 Hadoop 分发。在分发中,编辑文件etc/hadoop/hadoop-env.sh以定义一些参数,如下所示

    # set to the root of your Java installation
    export JAVA_HOME=/usr/java/latest
    
  • 单个机子部署(使用伪分布式)配置:
    修改etc/hadoop/core-site.xml 文件

    <configuration>#配置成hdfs模式<property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property>#将生产模式的运行日志生成到指定位置<property><name>hadoop.tmp.dir</name><value>/opt/hadoop/hadoop-2.10.1/data/tmp</value></property>
    </configuration>
    

    修改etc/hadoop/hdfs-site.xml 文件

    <configuration><property><name>dfs.replication</name><value>1</value></property>
    </configuration>
    
  • 第一次启动namenode 一定要格式化(只在第一次启动时需要格式化,其他情况不需要)

    bin/hdfs namenode -format
    
  • 启动namenode

    #启动
    sbin/hadoop-daemon.sh start namenode
    #停止
    sbin/hadoop-daemon.sh stop namenode
    
  • 启动datanode

    #启动
    sbin/hadoop-daemon.sh start datanode
    #停止
    sbin/hadoop-daemon.sh stop datanode
    
  • 启动好之后可以通过服务器ip:50070查看情况

  • 创建文件(需要配置使用hdfs才能用)

    bin/hdfs dfs -mkdir /user
    bin/hdfs dfs -mkdir /user/<username>
    #将输入文件复制到分布式文件系统中
    bin/hdfs dfs -mkdir input
    bin/hdfs dfs -put etc/hadoop/*.xml input
    #运行提供的一些示例
    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar grep input output 'dfs[a-z.]+'
    #检查输出文件:将输出文件从分布式文件系统复制到本地文件系统并检查它们
    bin/hdfs dfs -get output output
    cat output/*
    #或者
    bin/hdfs dfs -cat output/*
    

配置下hadoop的环境

vim /etc/profile#hadoop
export HADOOP_HOME=/home/wj/hadoop2.7.7
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATHsource /etc/profile

安装hive

在这里插入图片描述
官网下载相应的包

配置环境(一定要先配置好 hadoop的环境)

vim /etc/profile#hive  
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/binsource /etc/profile

在这里插入图片描述
建立Hive专用的元数据库

在Hive的conf目录下的文件“hive-site.xml”中增加如下配置
原目录没有,可以vim 创建一个hive-site.xml

<configuration>
<property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://gz-cdb-73kggk47.sql.tencentcdb.com:63524/hive?createDatabaseIfNotExist=true</value>
</property>
<property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value>
</property>
<property><name>javax.jdo.option.ConnectionUserName</name><value>root</value>
</property>
<property><name>javax.jdo.option.ConnectionPassword</name><value>ccnfgame001</value>
</property>
</configuration>

把MySQL的JDBC驱动包复制到Hive的lib目录下(略,下载地址:https://dev.mysql.com/downloads/connector/j/)

(驱动包名为:mysql-connector-java-5.1.46-bin.jar)看自己数据库什么版本,就下载什么版本就行了

检查连接 在bin目录下运行以下代码

./schematool -initSchema -dbType mysql

在这里插入图片描述
hive 远程服务 (端口号10000) 启动方式 (Thrift服务)

bin/hive –service hiveserver2 &&表示后台运行)
用java,python等程序实现通过jdbc等驱动的访问hive就用这种起动方式了,这个是程序员最需要的方式了

参考文章

安装spark

官网下载相应的包

scala

配置环境(一定要先配置好 hadoop的环境)

vim /etc/profile#scala
export SCALA_HOME=/home/ubuntu/ljq/hadoopAll/spark/scala-2.12.12
export PATH=$PATH:$SCALA_HOME/binsource /etc/profile

参考地址

这篇关于hadoop套件的安装与配置个人笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1067936

相关文章

ESP32 esp-idf esp-adf环境安装及.a库创建与编译

简介 ESP32 功能丰富的 Wi-Fi & 蓝牙 MCU, 适用于多样的物联网应用。使用freertos操作系统。 ESP-IDF 官方物联网开发框架。 ESP-ADF 官方音频开发框架。 文档参照 https://espressif-docs.readthedocs-hosted.com/projects/esp-adf/zh-cn/latest/get-started/index

Linux 安装、配置Tomcat 的HTTPS

Linux 安装 、配置Tomcat的HTTPS 安装Tomcat 这里选择的是 tomcat 10.X ,需要Java 11及更高版本 Binary Distributions ->Core->选择 tar.gz包 下载、上传到内网服务器 /opt 目录tar -xzf 解压将解压的根目录改名为 tomat-10 并移动到 /opt 下, 形成个人习惯的路径 /opt/tomcat-10

Tolua使用笔记(上)

目录   1.准备工作 2.运行例子 01.HelloWorld:在C#中,创建和销毁Lua虚拟机 和 简单调用。 02.ScriptsFromFile:在C#中,对一个lua文件的执行调用 03.CallLuaFunction:在C#中,对lua函数的操作 04.AccessingLuaVariables:在C#中,对lua变量的操作 05.LuaCoroutine:在Lua中,

AssetBundle学习笔记

AssetBundle是unity自定义的资源格式,通过调用引擎的资源打包接口对资源进行打包成.assetbundle格式的资源包。本文介绍了AssetBundle的生成,使用,加载,卸载以及Unity资源更新的一个基本步骤。 目录 1.定义: 2.AssetBundle的生成: 1)设置AssetBundle包的属性——通过编辑器界面 补充:分组策略 2)调用引擎接口API

uniapp接入微信小程序原生代码配置方案(优化版)

uniapp项目需要把微信小程序原生语法的功能代码嵌套过来,无需把原生代码转换为uniapp,可以配置拷贝的方式集成过来 1、拷贝代码包到src目录 2、vue.config.js中配置原生代码包直接拷贝到编译目录中 3、pages.json中配置分包目录,原生入口组件的路径 4、manifest.json中配置分包,使用原生组件 5、需要把原生代码包里的页面修改成组件的方

VMware9.0详细安装

双击VMware-workstation-full-9.0.0-812388.exe文件: 直接点Next; 这里,我选择了Typical(标准安装)。 因为服务器上只要C盘,所以我选择安装在C盘下的vmware文件夹下面,然后点击Next; 这里我把√取消了,每次启动不检查更新。然后Next; 点击Next; 创建快捷方式等,点击Next; 继续Cont

vcpkg安装opencv中的特殊问题记录(无法找到opencv_corexd.dll)

我是按照网上的vcpkg安装opencv方法进行的(比如这篇:从0开始在visual studio上安装opencv(超详细,针对小白)),但是中间出现了一些别人没有遇到的问题,虽然原因没有找到,但是本人给出一些暂时的解决办法: 问题1: 我在安装库命令行使用的是 .\vcpkg.exe install opencv 我的电脑是x64,vcpkg在这条命令后默认下载的也是opencv2:x6

《offer来了》第二章学习笔记

1.集合 Java四种集合:List、Queue、Set和Map 1.1.List:可重复 有序的Collection ArrayList: 基于数组实现,增删慢,查询快,线程不安全 Vector: 基于数组实现,增删慢,查询快,线程安全 LinkedList: 基于双向链实现,增删快,查询慢,线程不安全 1.2.Queue:队列 ArrayBlockingQueue:

IDEA配置Tomcat远程调试

因为不想把本地的Tomcat配置改乱或者多人开发项目想测试,本文主要是记录一下,IDEA使用Tomcat远程调试的配置过程,免得一段时间不去配置到时候忘记(毕竟这次是因为忘了,所以才打算记录的…) 首先在catalina.sh添加以下内容 JAVA_OPTS="-Dcom.sun.management.jmxremote=-Dcom.sun.management.jmxremote.port

【服务器运维】CentOS6 minimal 离线安装MySQL5.7

1.准备安装包(版本因人而异,所以下面的命令中版本省略,实际操作中用Tab自动补全就好了) cloog-ppl-0.15.7-1.2.el6.x86_64.rpmcpp-4.4.7-23.el6.x86_64.rpmgcc-4.4.7-23.el6.x86_64.rpmgcc-c++-4.4.7-23.el6.x86_64.rpmglibc-2.12-1.212.el6.x86_64.r