HiveQL Tips

2024-01-27 09:18
文章标签 tips hiveql

本文主要是介绍HiveQL Tips,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在Hive中,某些小技巧可以让我们的Job执行得更快,有时一点小小的改动就可以让性能得到大幅提升,这一点其实跟SQL差不多。

首先,Hive != SQL,虽然二者的语法很像,但是Hive最终会被转化成MapReduce的代码去执行,所以数据库的优化原则基本上都不适用于 Hive。也正因如此,Hive实际上是用来做计算的,而不像数据库是用作存储的,当然数据库也有很多计算功能,但一般并不建议在SQL中大量使用计算,把数据库只当作存储是一个很重要的原则

一、善用临时表

在处理海量数据时我们通常会对很多大表进行操作,基于Hadoop现在的局限性,不能像分布式并行数据库那样很好地在分布式环境利用数据局部性,Hadoop对于大表只能全表扫描并筛选数据,而每一次对大表的扫描都是苦不堪言的。(最后知道真相的我眼泪掉下来。。。)

所以我们会用到在编码中经常用到的重构技巧,提取公共变量,在Hive中,就是创建临时表。

例如:现在要对三个表A、B、C进行处理,Hive QL是:

select T1.*, T2.* from(select id, name from A) T1join(select id, price, feedback, type from B) T2on T1.id = T2.id;
select T1.*, T2.* from(select id, type from C) T1join(select id, price,feedback, attribute from B) T2on T1.id = T2.id;

这里A表和C表只会被扫描一次,而B表会被扫描两次,如果B表的数据量很大,那么扫描B表的时间将会占用很大一块。

这里我们可以先创建一个临时表:

create table temp_B as select id, price, feedback, type, attribute from B;

这个表只有B表的部分字段,所以大小会小很多,这里会对B表全表扫一遍。

然后可以用临时表和A、C表做join运算:

select T1.*, T2.* from(select id, name from A) T1join(select id, price, feedback, type from temp_B) T2on T1.id = T2.id;
select T1.*, T2.* from(select id, type from C) T1join(select id, price,feedback, attribute from temp_B) T2on T1.id = T2.id;

这样任务的执行速度将会有极大提升!尽管看起来多了一条Hive QL,但是后两个任务需要扫描的数据将会变得很小。

二、一次执行多个COUNT

如果我们要对多种条件进行COUNT,可以利用case语句进行,这样一条Hive QL就可以完成了。

select count(case when type = 1 then 1 end), count(case when type = 2 then 1 end) from table;

三、导出表文件

首先需要用create table在HDFS上生成你所需要的表,当需要从HDFS上将表对应的文件导出到本地磁盘时有两种方式:

1、如果需要保持HDFS上的目录结构,原封不动地复制下来,采用下面的命令:

set hive.exec.compress.output='false';
INSERT OVERWRITE LOCAL DIRECTORY '/home/hesey/directory' select * from table;

这样下载下来的目录中会有很多由Reducer产生的part-*文件。

2、如果想把表的所有数据都下载到一个文件中,则采用下面的命令:

hadoop dfs -getmerge hdfs://hdpnn:9000/hesey/hive/table /home/hesey/table.txt

这样所有文件会由Hadoop合并后下载到本地,最后就只有/home/hesey/table.txt这一个文件。

四、UDF

在Hive中很多时候都需要做一些复杂的计算或者逻辑处理,这时候Hive本身作为一个通用框架没法很好地支持,所以有了UDF(User Defined Function)。

1、使用UDF

(a)如果是已经上传到Hive服务器的UDF,可以直接用

create temporary function dosomething as 'net.hesey.udf.DoSomething';

声明临时函数,然后在下面的Hive QL中就可以调用dosomething这个方法了。

(b)如果是自己编写的UDF,需要在声明临时函数前再加一行:

add jar /home/hesey/foo.jar

这样就可以把自定义的UDF加载进来,然后和(a)一样声明临时函数就可以了。

2、编写UDF

编写UDF十分简单,引入hive-exec包,继承org.apache.hadoop.hive.ql.exec.UDF类,实现evaluate方法即可,方法的输入和输出参数类型就是当你在Hive中调用时的输入和返回值。

例如:

public Text evaluate(final LongWritable number);

(Text和LongWritable是org.apache.hadoop.io下面的类)

这样我们就可以定义自己的函数并方便地在Hive中调用,而不需要写一个重量级的MapReduce。

五、笛卡尔积

Hive本身是不支持笛卡尔积的,不能用select T1.*, T2.* from table_1, table_2这种语法。但有时候确实需要用到笛卡尔积的时候,可以用下面的语法来实现同样的效果:

select T1.*, T2.* from(select * from table1) T1join(select * from table2) T2on 1=1;

其中on 1=1是可选的,注意在Hive的Strict模式下不能用这种语法,需要先用set hive.mapred.mode=nonstrict;设为非strict模式就可以用了。

六、join的规则

当Hive做join运算时,join前面的表会被放入内存,所以在做join时,最好把小表放在前面,有利于提高性能并防止OOM。

七、排序

在SQL中排序通过ORDER by实现,Hive中也支持这种语法,但是使用ORDER by时最终所有的数据会汇总到一个Reducer上进行排序,可能使得该Reducer压力非常大,任务长时间无法完成。

如果排序只要求保证Value有序而Key可以无序,例如要统计每个用户每笔的交易额从高到低排列,只需要对每个用户的交易额排序,而用户ID本身不需要排序。这种情况采用分片排序更好,语法类似于:

select user_id, amount from table distribute by user_id sort by user_id, amount

这里用到的不是ORDER by,而是distribute bysort by,distribute by标识Map输出时分发的Key。

这样最后排序的时候,相同的user_id和amount在同一个Reducer上被排序,不同的user_id可以同时分别在多个Reducer上排序,相比ORDER by只能在一个Reducer上排序,速度有成倍的提升。


这篇关于HiveQL Tips的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/649773

相关文章

Unity协程搭配队列开发Tips弹窗模块

概述 在Unity游戏开发过程中,提示系统是提升用户体验的重要组成部分。一个设计良好的提示窗口不仅能及时传达信息给玩家,还应当做到不干扰游戏流程。本文将探讨如何使用Unity的协程(Coroutine)配合队列(Queue)数据结构来构建一个高效且可扩展的Tips弹窗模块。 技术模块介绍 1. Unity协程(Coroutines) 协程是Unity中的一种特殊函数类型,允许异步操作的实现

API安全 | 发现API的5个小tips

在安全测试目标时,最有趣的测试部分是它的 API。API 是动态的,它们比应用程序的其他部分更新得更频繁,并且负责许多后端繁重的工作。在现代应用程序中,我们通常会看到 REST API,但也会看到其他形式,例如 GraphQL 甚至 SOAP。 当我们第一次对某个目标进行安全测试时,我们需要做大量研究,以了解其主要功能以及它们在幕后如何工作。建议花一些时间来阅读有关目标及其服务的信息。例如,如果

Anylogic制作界面元素tips

点击元素后跳转至其他视图,且能够把某个共同元素移植过去 navigate( viewStatistics2 );groupControls.setX( groupControls.getX() + 1200 );

问题解决:java运行HiveQL,报错:java.lang.NoClassDefFoundError: org/apache/hadoop/conf/Configuration

文章目录 问题场景问题环境问题原因解决方案结果总结随缘求赞 问题场景 使用Java编写HiveQL语句,然后通过jdbc的方式远程连接hive集群,并执行。在执行过程中,报错,错误信息如下: java.lang.NoClassDefFoundError: org/apache/hadoop/conf/Configurationat org.apache.hive.jdbc.Hi

deep learning tips

dropout是为了防止过拟合,实在testing data上面效果不好时用的,而training data效果不好的时候不会考虑这个方法。 vanishing gradient problem和 exploding gradient:梯度消失和梯度爆炸问题,可以参考此篇博客。 Regularization: L2: 不考虑bias是因为我们加入正则是为了让我们的function更平滑

清除系统缓存提高写盘速度的tips

sync; echo 3 > /proc/sys/vm/drop_caches 上面是一个常用于 Linux 系统的命令组合,主要用于清理内存中的缓存。下面是对这条命令的详细解释: sync sync 命令用于将所有未写入磁盘的缓存数据写入磁盘。Linux 操作系统会将一些数据保存在内存中(例如文件系统的缓冲区),以提高性能。执行 sync 命令后,系统会将所有这些缓存数据写入磁盘,从

Git_Tips

文章目录 Git安装Github新增ssh强制覆盖本地删除Git凭据常用操作分支操作远程操作日志操作标签操作Tips克隆某分支强制推送分支到master跟踪空文件夹推送多个仓库分支迁移GitHub Q&AThe authenticity of host 'github.com (192.30.255.112)' can't be establishederror:failed to push

CentOS_Tips

文章目录 系统安装下载镜像制作启动盘安装分区介绍 常见操作关闭selinux密码重置网络配置更换阿里云镜像 常用软件FTP其它oh-my-zsh 系统安装 下载镜像 阿里云镜像站 制作启动盘 下载使用Rufus,制作镜像 安装 SOFTWARE SELECTION Minimal Install(最小化安装)右侧:调试工具、兼容库、开发者工具、系统管理工具

Spring_Tips

文章目录 Lettuce和Jedis 对比 Lettuce和Jedis 对比 Lettuce 和 jedis 的都是连接 Redis Server的客户端,Jedis 在实现上是直连 redis server,多线程环境下非线程安全,除非使用连接池,为每个 redis实例增加 物理连接。Lettuce 是 一种可伸缩,线程安全,完全非阻塞的Redis客户端,多个线程可以共享一个

Docker_Tips

文章目录 DockerDocker介绍虚拟机&容器对比虚拟机容器 Docker是什么Docker用途Docker概念image文件容器文件 Docker安装系统要求卸载旧版本源设置脚本自动安装启动Docke测试Docker配置Docker源 Docker使用常用命令 参考鸣谢 Docker Docker介绍 虚拟机&容器对比 虚拟机 虚拟机(virtual mac