hiveQL学习和hive常用操作

2023-10-19 10:32
文章标签 学习 操作 常用 hive hiveql

本文主要是介绍hiveQL学习和hive常用操作,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Hive服务

Hive外壳环境是可以使用hive命令来运行的一项服务。可以在运行时使用-

service选项指明要使用哪种服务。键入hive-servicehelp可以获得可用服务

列表。下面介绍最有用的一些服务。

cli

   Hive的命令行接口(外壳环境)。这是默认的服务。

hiveserver

    让Hive以提供Trift服务的服务器形式运行,允许用不同语言编写的客户端进

    行访问。使用Thrift,  JDBC和ODBC连接器的客户端需要运行Hive服务器来

    和Hive进行通信。通过设置HIVE_ PORT环境变量来指明服务器所监听的端口

    号(默认为10 000).

hwi

Hive的Web接口。参见第372页的补充内容“HiveWeb Interface"。

(hive –service hwi)启动web服务后通过访问http://ip:9999/hwi

jar

    与hadoopjar等价的Hive的接口。这是运行类路径中同时包含Hadoop和

   Hive类的Java应用程序的简便方法。

metastore

    默认情况下,metastore和Hive服务运行在同一个进程里。使用这个服务,可

    以让metastore作为一个单独的(远程)进程运行。通过设置METASTORE_PORT

环境变量可以指定服务器监听的端口号。

 

 

 

 

 

Hive客户端

启动(hive --service hiveserver &)hive远程访问服务

会提示Starting Hive Thrift Server 。

这个时候就可以通过thrift 客户端,jdbc驱动,odbc驱动去访问和操作了。

 

Metastore

 

metastore是Hive元数据的集中存放地。metastore包括两部分:服务和后台数据的存储。

 

默认derby数据,不过只能单机访问。

一般都放在远程数据库,hive和元数据数据库分开放。比如mysql直接配置上mysql参数即可。参考安装部分。

 

 

 

 

 

HiveQL

 

Hive查询的和数据处理的语言,内部会解析成对应的操作或者mapreduce程序等处理。

 

数据类型

基本数据类型

TINYINT: 1个字节

SMALLINT: 2个字节

INT: 4个字节  

BIGINT: 8个字节

BOOLEAN: TRUE/FALSE 

FLOAT: 4个字节,单精度浮点型

DOUBLE: 8个字节,双精度浮点型

STRING      字符串

复杂数据类型

ARRAY: 有序字段

MAP: 无序字段

STRUCT: 一组命名的字段

 

 

数据转换

Hive中数据部分可以通行的范围是允许隐身转换的。

个人处理数据要显示指定转化的话可以调用cast函数比如:cast(‘1’ as int)

当然如果说处理的数据属于非法的话,比如cast(‘x’ as int) 会直接返回null

 

 

Hive表格逻辑上由存储的数据和描述表格中数据形式的相关元数据组成。

Hive表中存在两种形式一个是在自己仓库目录(托管表),另一种是hdfs仓库目录以外的(外部表)。对于托管表基本上是load和drop的时候直接对数据和元数据都操作。但是外部表却是基本只对元数据操作。

 

创建普通表语句

create table records (yearstring,temperature int,quality int) row format delimited fields terminated by'\t'

 

创建外部表语句

 

外部表数据位置

[root@ebsdi-23260-oozie tmp]# hadoop fs-put sample.txt  /user/houchangren/tmp/location
[root@ebsdi-23260-oozie tmp]# hadoop fs-mkdir  /user/houchangren/tmp/location
[root@ebsdi-23260-oozie tmp]# hadoop fs-put sample.txt /user/houchangren/tmp/location
[root@ebsdi-23260-oozie tmp]# hadoop fs-cat /user/houchangren/tmp/location/sample.txt
1990   44      1
1991   45      2
1992   41      3
1993   43      2
1994   41      1


 

创建表指定外部表数据位置&查看数据

hive> create external tabletb_ext_records(year string,temperature int,quality int) row format delimitedfields terminated by '\t' location '/user/houchangren/tmp/location/';
OK
Time taken: 0.133 seconds
hive> select * from tb_ext_records;
OK
1990   44      1
1991   45      2
1992   41      3
1993   43      2
1994   41      1
Time taken: 0.107 seconds

分区和桶

 

 

分区表是hive中一种存放表但是可以根据个别列来分别存放的形式的表结构。区别于普通表的时候要指定分区的列,而且数据中是不存在分区列的,而且不能存在。

一个分区表表中有可以多个维度分区。

 

 

创建分区表语句

create table tb_test (yearstring,temperature int,quality int) partitioned by (ds string,ds2 string) row format delimited fieldsterminated by '\t';

 

查看分区

show partitions tb_test;

 

加载数据到指定分区表

load data local inpath'/root/hcr/tmp/sample.txt' into table tb_test partition(ds='2013-12-06',ds2='shanghai')

 

根据分区条件查询

 

select * from tb_test where ds='2013-12-06';

 

创建桶语句

create table tb_test_bucket(yearstring,temperature int,quality int) clustered by(temperature) into 3 buckets row format delimited fields terminated by '\t';

 

加载数据到桶中

insert overwrite table tb_test_bucket select * from records;

 

查看hdfs文件

hive> dfs -ls/user/hive/warehouse/tb_test_bucket;
Found 3 items
-rw-r--r--  2 root supergroup         202013-12-09 11:36 /user/hive/warehouse/tb_test_bucket/000000_0
-rw-r--r--  2 root supergroup         202013-12-09 11:36 /user/hive/warehouse/tb_test_bucket/000001_0
-rw-r--r--  2 root supergroup         60 2013-12-0911:36 /user/hive/warehouse/tb_test_bucket/000002_0

 

查看数据取样测试

 

select * from tb_test_bucket  table sample(bucket 1 out of 2 on temperature);

 

hive> select * from tb_test_bucket  tablesample(bucket 1 out of 2 on temperature);
Total MapReduce jobs = 1
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there's no reduce operator
Starting Job = job_201311101215_51576, Tracking URL = http://hadoop-master.TB.com:50030/jobdetails.jsp?jobid=job_201311101215_51576
Kill Command = /usr/lib/hadoop-0.20/bin/hadoop job  -Dmapred.job.tracker=hadoop-master.TB.com:8021 -kill job_201311101215_51576
Hadoop job information for Stage-1: number of mappers: 3; number of reducers: 0
2013-12-09 11:36:48,415 Stage-1 map = 0%,  reduce = 0%
2013-12-09 11:36:50,449 Stage-1 map = 33%,  reduce = 0%, Cumulative CPU 2.81 sec
2013-12-09 11:36:51,463 Stage-1 map = 67%,  reduce = 0%, Cumulative CPU 2.81 sec
2013-12-09 11:36:52,475 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 4.39 sec
2013-12-09 11:36:53,489 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 4.39 sec
2013-12-09 11:36:54,504 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 4.39 sec
MapReduce Total cumulative CPU time: 4 seconds 390 msec
Ended Job = job_201311101215_51576
MapReduce Jobs Launched:
Job 0: Map: 3   Accumulative CPU: 4.39 sec   HDFS Read: 802 HDFS Write: 20 SUCESS
Total MapReduce CPU Time Spent: 4 seconds 390 msec
OK
1990    44      1
1990    44      1
Time taken: 11.094 seconds


导入数据

Insert overwrite table

在插入数据的时候是强制替换的overwrite

 

动态分区使用(从一个表中的分区中取数据放到另一个目标分区表中,分区是在查询表已经存在的。)

 

设定环境

 

set hive.exec.dynamic.partition=true;
sethive.exec.dynamic.partition.mode=nonstrict;

 

目标分区表

create table tb_test_pt (yearstring,temperature int,quality int) partitioned by (ds string) row format delimited fields terminated by'\t';
 

动态分区取数插入

insert overwrite table tb_test_pt partition(ds) select year,temperature,quality,ds from tb_test;

 

多表导入

 

在hive中是支持如下语法

 

from sourceTable
insert overwrite table targetTable
select col1,col2


源表数据

hive> select * from tb_test;
OK
1990    44      1       2013-12-06      shandong
1991    45      2       2013-12-06      shandong
1992    41      3       2013-12-06      shandong
1993    43      2       2013-12-06      shandong
1994    41      1       2013-12-06      shandong
1990    44      1       2013-12-06      shanghai
1991    45      2       2013-12-06      shanghai
1992    41      3       2013-12-06      shanghai
1993    43      2       2013-12-06      shanghai
1994    41      1       2013-12-06      shanghai


创建三个目标表

create table tb_records_by_year (year string,count int) row format delimited fields terminated by '\t';
create table tb_stations_by_year (year string,count int) row format delimited fields terminated by '\t';
create table tb_good_records_by_year (year string,count int) row format delimited fields terminated by '\t';


插入多表执行sql


from tb_test
insert overwrite table tb_stations_by_year
select  year,count(distinct temperature)
group by year
insert overwrite table tb_records_by_year
select  year,count(1)
group by year
insert overwrite table tb_good_records_by_year
select  year,count(1)
where temperature!=9999 and (quality =0  or quality=1 or quality=3)
group by  year;

操作结果
hive> select * from tb_records_by_year;
OK
1990    2
1991    2
1992    2
1993    2
1994    2
Time taken: 0.088 seconds
hive> select * from tb_stations_by_year;
OK
1990    1
1991    1
1992    1
1993    1
1994    1
Time taken: 0.081 seconds
hive> select * from tb_good_records_by_year;
OK
1990    2
1992    2
1994    2
Time taken: 0.085 seconds



 

 

Create Table … As  Select (CTAS)

把 hive 查询的数据直接放到一个新表中。(因为是原子性操作,so如果查询失败,那么创建也是失败)

 

操作实例

create table tb_records_ctas
as
select year,temperature from tb_test;


 

数据导出

 

导出到本地目录

insert overwrite local directory'/root/hcr/tmp/ex_abc2.txt' select * from m_t2;


导出到hdfs目录

insert overwrite directory'/user/houchangren/tmp/m_t2' select * from m_t2;


 

表的修改Alter table

 

修改表名rename to

alter table tb_records_ctas rename totb_records_2


增加新列

alter table tb_records_2 add columns(new_col int);

修改某一列的信息

ALTER TABLE tb_records_2 CHANGE COLUMN new_col col1  string;

 

查询表结构信息 

hive>desc formatted test;




等等具体还有好多修改表信息的操作

 

参考

https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL#LanguageManualDDL-AlterTable%2FPartition%2FColumn

 

 

表的丢弃

由于数据的元数据在mysql数据库存着,而数据存在hdfs上。

所以如果想留着表结构只清空数据,直接删除hdfs数据即可,默认没有目录,hive会认为是空表。

直接全删除(内部表)

drop table tableName

可以创建一个新的表从旧表中复制模式create table new_table like old_table;

 

create table tb_records_2 like tb_test;

 


这篇关于hiveQL学习和hive常用操作的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/239209

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

JS常用组件收集

收集了一些平时遇到的前端比较优秀的组件,方便以后开发的时候查找!!! 函数工具: Lodash 页面固定: stickUp、jQuery.Pin 轮播: unslider、swiper 开关: switch 复选框: icheck 气泡: grumble 隐藏元素: Headroom

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

常用的jdk下载地址

jdk下载地址 安装方式可以看之前的博客: mac安装jdk oracle 版本:https://www.oracle.com/java/technologies/downloads/ Eclipse Temurin版本:https://adoptium.net/zh-CN/temurin/releases/ 阿里版本: github:https://github.com/

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

30常用 Maven 命令

Maven 是一个强大的项目管理和构建工具,它广泛用于 Java 项目的依赖管理、构建流程和插件集成。Maven 的命令行工具提供了大量的命令来帮助开发人员管理项目的生命周期、依赖和插件。以下是 常用 Maven 命令的使用场景及其详细解释。 1. mvn clean 使用场景:清理项目的生成目录,通常用于删除项目中自动生成的文件(如 target/ 目录)。共性规律:清理操作

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss