大数据-数仓-数仓工具:Hive(离线数据分析框架)【替代MapReduce编程;插入、查询、分析HDFS中的大规模数据;机制是将HiveSQL转化成MR程序;不支持修改、删除操作;执行延迟较高】

本文主要是介绍大数据-数仓-数仓工具:Hive(离线数据分析框架)【替代MapReduce编程;插入、查询、分析HDFS中的大规模数据;机制是将HiveSQL转化成MR程序;不支持修改、删除操作;执行延迟较高】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述
Hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。

Hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。

Hive的优点是学习成本低,可以通过类似SQL语句实现快速MapReduce统计,使MapReduce变得更加简单,而不必开发专门的MapReduce应用程序。

Hive十分适合对数据仓库进行统计分析。

Hive数据仓库 { 元数据(字段名,字段类型...等表结构信息):保存在mysql中 数据(记录值):存储在HDFS中 “元数据”与“数据”通过表进行映射 \text{Hive数据仓库} \begin{cases} \text{元数据(字段名,字段类型...等表结构信息):保存在mysql中}\\[2ex] \text{数据(记录值):存储在HDFS中}\\[2ex] \text{“元数据”与“数据”通过表进行映射} \end{cases} Hive数据仓库 元数据(字段名,字段类型...等表结构信息):保存在mysql数据(记录值):存储在HDFS元数据数据通过表进行映射
在这里插入图片描述
Hive的本质

  • 在Hive中创建的表,库都在hdfs上有相应的路径!
  • 表中的数据,是文件的形式在表对应的目录中存放!
  • 在建表和建库后,会在Mysql中生成对应的shema信息!
    • tbls: 存放表的元数据
    • dbs: 库的元数据
    • column_v2: 列的元数据

Hive的特点:

  • 只支持读(select)、写(insert)操作;
  • 不支持修改(update)、删除(delete)某条数据

生产实践中的流程

  1. 采集数据
  2. 将数据按照自定义的某种格式保存在HDFS中
  3. 根据保存在HDFS中采集数据的格式创建表结构
  4. 使用HiveSql语句进行分析;





一、Hive安装及基本应用

1、Hive安装

①保证安装Hive的Linux服务器的环境变量中有JAVA_HOME
②基于HADOOP工作,保证安装Hive的Linux服务器的环境变量中有HADOOP_HOME
③在安装Hive的Linux服务器的环境变量中配置HIVE_HOME,默认hive在启动时,会读取HIVE_HOME/conf中的配置文件

[wyr@hadoop102 ~]$ echo $JAVA_HOME
/opt/module/jdk1.8.0_121
[wyr@hadoop102 ~]$ echo $HADOOP_HOME
/opt/module/hadoop-2.7.2
[wyr@hadoop102 ~]$ 

把apache-hive-1.2.1-bin.tar.gz上传到linux的/opt/soft目录下,解压apache-hive-1.2.1-bin.tar.gz到/opt/module/目录下面

[wyr@hadoop102 soft]$ tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /opt/module/
[wyr@hadoop102 module]$ ll
total 16
drwxrwxr-x.  8 wyr wyr 4096 Jan 30 15:44 apache-hive-1.2.1-bin
drwxr-xr-x. 11 wyr wyr 4096 Jan 30 15:30 hadoop-2.7.2
drwxr-xr-x.  8 wyr wyr 4096 Dec 13  2016 jdk1.8.0_121
drwxr-xr-x. 11 wyr wyr 4096 Jan 29 22:01 zookeeper-3.4.10
[wyr@hadoop102 module]$ 

修改apache-hive-1.2.1-bin.tar.gz的名称为hive

[wyr@hadoop102 module]$ mv apache-hive-1.2.1-bin/ hive
[wyr@hadoop102 module]$ ll
total 16
drwxr-xr-x. 11 wyr wyr 4096 Jan 30 15:30 hadoop-2.7.2
drwxrwxr-x.  8 wyr wyr 4096 Jan 30 15:44 hive
drwxr-xr-x.  8 wyr wyr 4096 Dec 13  2016 jdk1.8.0_121
drwxr-xr-x. 11 wyr wyr 4096 Jan 29 22:01 zookeeper-3.4.10
[wyr@hadoop102 module]$ 

将/opt/module/hive/bin目录添加到环境变量,在环境变量中提供HIVE_HOME

[wyr@hadoop102 conf]$ vim /etc/profileJAVA_HOME=/opt/module/jdk1.8.0_121
HADOOP_HOME=/opt/module/hadoop-2.7.2
HIVE_HOME=/opt/module/hive
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin
export JAVA_HOME HADOOP_HOME HIVE_HOME PATH[wyr@hadoop102 conf]$ source /etc/profile

2、Hive启动及基本操作

2.1 Hive启动与退出

[wyr@hadoop102 ~]$ ll
total 60
drwxrwxr-x. 2 wyr wyr  4096 Jan 29 12:55 bin
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Desktop
drwxr-xr-x. 2 wyr wyr  4096 Jan 29 23:09 Documents
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Downloads
-rw-rw-r--. 1 wyr wyr    12 Jan 29 23:22 hello
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Music
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Pictures
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Public
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Templates
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Videos
-rw-rw-r--. 1 wyr wyr 19392 Jan 30 15:15 zookeeper.out
[wyr@hadoop102 ~]$ hiveLogging initialized using configuration in jar:file:/opt/module/hive/lib/hive-common-1.2.1.jar!/hive-log4j.properties
hive> quit;
[wyr@hadoop102 ~]$ ll
total 88
drwxrwxr-x. 2 wyr wyr  4096 Jan 29 12:55 bin
-rw-rw-r--. 1 wyr wyr 21031 Jan 30 17:02 derby.log
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Desktop
drwxr-xr-x. 2 wyr wyr  4096 Jan 29 23:09 Documents
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Downloads
-rw-rw-r--. 1 wyr wyr    12 Jan 29 23:22 hello
drwxrwxr-x. 5 wyr wyr  4096 Jan 30 17:02 metastore_db
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Music
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Pictures
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Public
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Templates
drwxr-xr-x. 2 wyr wyr  4096 Jan 26 11:17 Videos
-rw-rw-r--. 1 wyr wyr 19392 Jan 30 15:15 zookeeper.out
[wyr@hadoop102 ~]$ 
  • Hive在哪个目录启动就会在该目录下创建metastore_db文件夹、derby.log日志文件
  • 如果下载在别的目录启动Hive,只会读取当前目录的Hive数据,不会读取别的目录下的Hive数据

2.1 Hive基本操作

查看数据库

hive> show databases;
OK
default
Time taken: 0.516 seconds, Fetched: 1 row(s)
hive> 

打开默认数据库

hive> use default;
OK
Time taken: 0.01 seconds
hive> 

创建一张表

hive> create table person(name varchar(20), age int);
OK
Time taken: 0.261 seconds
hive> 

显示default数据库中的表

hive> show tables;
OK
person
Time taken: 0.008 seconds, Fetched: 1 row(s)
hive> 
<

这篇关于大数据-数仓-数仓工具:Hive(离线数据分析框架)【替代MapReduce编程;插入、查询、分析HDFS中的大规模数据;机制是将HiveSQL转化成MR程序;不支持修改、删除操作;执行延迟较高】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1128907

相关文章

详谈redis跟数据库的数据同步问题

《详谈redis跟数据库的数据同步问题》文章讨论了在Redis和数据库数据一致性问题上的解决方案,主要比较了先更新Redis缓存再更新数据库和先更新数据库再更新Redis缓存两种方案,文章指出,删除R... 目录一、Redis 数据库数据一致性的解决方案1.1、更新Redis缓存、删除Redis缓存的区别二

Redis事务与数据持久化方式

《Redis事务与数据持久化方式》该文档主要介绍了Redis事务和持久化机制,事务通过将多个命令打包执行,而持久化则通过快照(RDB)和追加式文件(AOF)两种方式将内存数据保存到磁盘,以防止数据丢失... 目录一、Redis 事务1.1 事务本质1.2 数据库事务与redis事务1.2.1 数据库事务1.

SpringBoot操作spark处理hdfs文件的操作方法

《SpringBoot操作spark处理hdfs文件的操作方法》本文介绍了如何使用SpringBoot操作Spark处理HDFS文件,包括导入依赖、配置Spark信息、编写Controller和Ser... 目录SpringBoot操作spark处理hdfs文件1、导入依赖2、配置spark信息3、cont

Golang使用minio替代文件系统的实战教程

《Golang使用minio替代文件系统的实战教程》本文讨论项目开发中直接文件系统的限制或不足,接着介绍Minio对象存储的优势,同时给出Golang的实际示例代码,包括初始化客户端、读取minio对... 目录文件系统 vs Minio文件系统不足:对象存储:miniogolang连接Minio配置Min

Python pyinstaller实现图形化打包工具

《Pythonpyinstaller实现图形化打包工具》:本文主要介绍一个使用PythonPYQT5制作的关于pyinstaller打包工具,代替传统的cmd黑窗口模式打包页面,实现更快捷方便的... 目录1.简介2.运行效果3.相关源码1.简介一个使用python PYQT5制作的关于pyinstall

Oracle Expdp按条件导出指定表数据的方法实例

《OracleExpdp按条件导出指定表数据的方法实例》:本文主要介绍Oracle的expdp数据泵方式导出特定机构和时间范围的数据,并通过parfile文件进行条件限制和配置,文中通过代码介绍... 目录1.场景描述 2.方案分析3.实验验证 3.1 parfile文件3.2 expdp命令导出4.总结

更改docker默认数据目录的方法步骤

《更改docker默认数据目录的方法步骤》本文主要介绍了更改docker默认数据目录的方法步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1.查看docker是否存在并停止该服务2.挂载镜像并安装rsync便于备份3.取消挂载备份和迁

不删数据还能合并磁盘? 让电脑C盘D盘合并并保留数据的技巧

《不删数据还能合并磁盘?让电脑C盘D盘合并并保留数据的技巧》在Windows操作系统中,合并C盘和D盘是一个相对复杂的任务,尤其是当你不希望删除其中的数据时,幸运的是,有几种方法可以实现这一目标且在... 在电脑生产时,制造商常为C盘分配较小的磁盘空间,以确保软件在运行过程中不会出现磁盘空间不足的问题。但在

使用Python制作一个PDF批量加密工具

《使用Python制作一个PDF批量加密工具》PDF批量加密‌是一种保护PDF文件安全性的方法,通过为多个PDF文件设置相同的密码,防止未经授权的用户访问这些文件,下面我们来看看如何使用Python制... 目录1.简介2.运行效果3.相关源码1.简介一个python写的PDF批量加密工具。PDF批量加密

Java如何接收并解析HL7协议数据

《Java如何接收并解析HL7协议数据》文章主要介绍了HL7协议及其在医疗行业中的应用,详细描述了如何配置环境、接收和解析数据,以及与前端进行交互的实现方法,文章还分享了使用7Edit工具进行调试的经... 目录一、前言二、正文1、环境配置2、数据接收:HL7Monitor3、数据解析:HL7Busines