Hive的UDF开发之向量化表达式(VectorizedExpressions)

2024-02-22 02:04

本文主要是介绍Hive的UDF开发之向量化表达式(VectorizedExpressions),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 背景

笔者的大数据平台XSailboat的SailWorks模块包含离线分析功能。离线分析的后台实现,包含调度引擎、执行引擎、计算引擎和存储引擎。计算和存储引擎由Hive提供,调度引擎和执行引擎由我们自己实现。调度引擎根据DAG图和调度计划,安排执行顺序,监控执行过程。执行引擎接收调度引擎安排的任务,向Yarn申请容器,在容器中执行具体的任务。

我们的离线分析支持编写Hive的UDF函数,打包上传,并声明使用函数。
在这里插入图片描述
我们通常会通过继承org.apache.hadoop.hive.ql.udf.generic.GenericUDF来自定义自己的UDF函数,再参考Hive实现的内置UDF函数时,经常会看到在它的类名上,有@VectorizedExpressions注解,翻译过来即“向量化表达式”。在此记录一下自己学习到的知识和理解。

官方文档《Vectorized Query Execution》
有以下应该至少知道的点:

  1. 向量化查询缺省是关闭的;
  2. 要能支持向量化查询,数据存储格式必需是ORC格式(我们主要是用CSV格式)。

通常所说的向量化计算主要是从以下几个方面提升效率:

  1. 利用CPU底册指令对向量的运算
  2. 利用多核/多线程的能力进行并发计算

而Hive的向量化执行,主要是代码逻辑聚合并充分利用上下文,减少判断次数,减少对象的访问处理和序列化次数,数据切块并行。

2. 实践

package com.cimstech.udf.date;import java.io.UnsupportedEncodingException;
import java.text.ParseException;
import java.text.SimpleDateFormat;
import java.util.Arrays;import org.apache.hadoop.hive.ql.exec.vector.BytesColumnVector;
import org.apache.hadoop.hive.ql.exec.vector.TimestampColumnVector;
import org.apache.hadoop.hive.ql.exec.vector.VectorExpressionDescriptor;
import org.apache.hadoop.hive.ql.exec.vector.VectorExpressionDescriptor.Descriptor;
import org.apache.hadoop.hive.ql.exec.vector.VectorizedRowBatch;
import org.apache.hadoop.hive.ql.exec.vector.expressions.VectorExpression;
import org.apache.hadoop.hive.ql.metadata.HiveException;import com.cimstech.xfront.common.excep.WrapException;
import com.cimstech.xfront.common.text.XString;public class VectorUDFStringToTimstamp extends VectorExpression
{private static final long serialVersionUID = 1L;/*** 列序号*/int mColNum0 ;/*** 时间格式*/String mDateFmt ;transient SimpleDateFormat mSdf ;/*** 必需得有1个无参的构造函数.		<br />* hive会先通过无参构造函数创建一个实例,然后调用getDescriptor()方法,取得描述。* 通过描述知道有哪几列,分别是什么格式的,才知道怎么调用有参构造函数。*/public VectorUDFStringToTimstamp(){super() ;}/*** 有参构造函数的参数要和getDescriptor中取得的描述相对应。* Column类型的输入,在此用int类型列序号表示			<br />* 标量列直接是相应类型即可。						* @param aColNum0* @param aDateFmt* @param aOutputColumnNum*/public VectorUDFStringToTimstamp(int aColNum0 , String aDateFmt, int aOutputColumnNum){super(aOutputColumnNum) ;mColNum0 = aColNum0 ;mDateFmt = aDateFmt ;}@Overridepublic String vectorExpressionParameters(){return getColumnParamString(0 , mColNum0)+ " , val " + mDateFmt ;}private void setDatetime(TimestampColumnVector aTimestampColVector, byte[][] aVector, int aElementNum) throws HiveException{if(mSdf == null)mSdf = new SimpleDateFormat(mDateFmt) ;String dateStr = null ;try{dateStr = new String(aVector[aElementNum] , "UTF-8") ;aTimestampColVector.getScratchTimestamp().setTime(mSdf.parse(dateStr).getTime()) ;}catch (UnsupportedEncodingException e){WrapException.wrapThrow(e) ;return ;		// dead code}catch(ParseException e){throw new HiveException(XString.msgFmt("时间字符串[{}]无法按模式[{}]解析!" , dateStr , mDateFmt)) ;}aTimestampColVector.setFromScratchTimestamp(aElementNum);}@Overridepublic void evaluate(VectorizedRowBatch aBatch) throws HiveException{if (childExpressions != null){evaluateChildren(aBatch);}int n = aBatch.size;if (n == 0)return;BytesColumnVector inputColVector = (BytesColumnVector) aBatch.cols[mColNum0];TimestampColumnVector outputColVector = (TimestampColumnVector) aBatch.cols[outputColumnNum];boolean[] inputIsNull = inputColVector.isNull;boolean[] outputIsNull = outputColVector.isNull;byte[][] vector = inputColVector.vector;if (inputColVector.isRepeating){// 如果是重复的,那么只需要解析第1个就行if (inputColVector.noNulls || !inputIsNull[0]){outputIsNull[0] = false;setDatetime(outputColVector, vector, 0);}else{// 重复,且都是null,那么没有可解析的,如下设置即可outputIsNull[0] = true;outputColVector.noNulls = false;}outputColVector.isRepeating = true;return;}elseoutputColVector.isRepeating = false;if (inputColVector.noNulls) 	// 没有为null的{// selectedInUse为true,表示选中输入中的指定行进行处理。if (aBatch.selectedInUse){int[] sel = aBatch.selected;if (!outputColVector.noNulls)		// 全局被标为了有null值,那么各个为止都需要单独设置是否为null{for (int j = 0; j != n; j++){final int i = sel[j] ;outputIsNull[i] = false;		// 某一行,单独设置不为nullsetDatetime(outputColVector, vector, i);}}else{for (int j = 0; j != n; j++){final int i = sel[j];// 全局被标为了没有null值,那么无需一行行标注非nullsetDatetime(outputColVector, vector, i);}}}else{// 输入是全局没有null值的,输出被全局标为了有null值,那么把输出改过来,改为全局没有null值if (!outputColVector.noNulls)		{Arrays.fill(outputIsNull, false);		// 所有输出都非nulloutputColVector.noNulls = true;			// 改为全局没有null值}for (int i = 0; i != n; i++){setDatetime(outputColVector, vector, i);}}}else	// 输入数据是有null的{outputColVector.noNulls = false;if (aBatch.selectedInUse){int[] sel = aBatch.selected;for (int j = 0; j != n; j++){int i = sel[j] ;outputIsNull[i] = inputIsNull[i] ;if(!outputIsNull[i])setDatetime(outputColVector, vector, i) ;}}else{System.arraycopy(inputIsNull, 0, outputIsNull, 0, n);for (int i = 0; i != n; i++){if(!outputIsNull[i])setDatetime(outputColVector, vector, i) ;}}}}@Overridepublic Descriptor getDescriptor(){return (new VectorExpressionDescriptor.Builder())// 不是过滤,都认为是投影(Projection)。投影是数据库理论中的专业术语// 投影是根据输入,构造输出,填充输出列// 过滤就是设置aBatch.selected.setMode(VectorExpressionDescriptor.Mode.PROJECTION)		.setNumArguments(2).setArgumentTypes(VectorExpressionDescriptor.ArgumentType.STRING, VectorExpressionDescriptor.ArgumentType.STRING).setInputExpressionTypes(VectorExpressionDescriptor.InputExpressionType.COLUMN, VectorExpressionDescriptor.InputExpressionType.SCALAR)		// 标量,指定的字符串常量,就是标量.build();}}

这篇关于Hive的UDF开发之向量化表达式(VectorizedExpressions)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/733811

相关文章

使用Python开发一个带EPUB转换功能的Markdown编辑器

《使用Python开发一个带EPUB转换功能的Markdown编辑器》Markdown因其简单易用和强大的格式支持,成为了写作者、开发者及内容创作者的首选格式,本文将通过Python开发一个Markd... 目录应用概览代码结构与核心组件1. 初始化与布局 (__init__)2. 工具栏 (setup_t

Spring Shell 命令行实现交互式Shell应用开发

《SpringShell命令行实现交互式Shell应用开发》本文主要介绍了SpringShell命令行实现交互式Shell应用开发,能够帮助开发者快速构建功能丰富的命令行应用程序,具有一定的参考价... 目录引言一、Spring Shell概述二、创建命令类三、命令参数处理四、命令分组与帮助系统五、自定义S

Python通过模块化开发优化代码的技巧分享

《Python通过模块化开发优化代码的技巧分享》模块化开发就是把代码拆成一个个“零件”,该封装封装,该拆分拆分,下面小编就来和大家简单聊聊python如何用模块化开发进行代码优化吧... 目录什么是模块化开发如何拆分代码改进版:拆分成模块让模块更强大:使用 __init__.py你一定会遇到的问题模www.

Spring Security基于数据库的ABAC属性权限模型实战开发教程

《SpringSecurity基于数据库的ABAC属性权限模型实战开发教程》:本文主要介绍SpringSecurity基于数据库的ABAC属性权限模型实战开发教程,本文给大家介绍的非常详细,对大... 目录1. 前言2. 权限决策依据RBACABAC综合对比3. 数据库表结构说明4. 实战开始5. MyBA

使用Python开发一个简单的本地图片服务器

《使用Python开发一个简单的本地图片服务器》本文介绍了如何结合wxPython构建的图形用户界面GUI和Python内建的Web服务器功能,在本地网络中搭建一个私人的,即开即用的网页相册,文中的示... 目录项目目标核心技术栈代码深度解析完整代码工作流程主要功能与优势潜在改进与思考运行结果总结你是否曾经

Spring Boot + MyBatis Plus 高效开发实战从入门到进阶优化(推荐)

《SpringBoot+MyBatisPlus高效开发实战从入门到进阶优化(推荐)》本文将详细介绍SpringBoot+MyBatisPlus的完整开发流程,并深入剖析分页查询、批量操作、动... 目录Spring Boot + MyBATis Plus 高效开发实战:从入门到进阶优化1. MyBatis

Python基于wxPython和FFmpeg开发一个视频标签工具

《Python基于wxPython和FFmpeg开发一个视频标签工具》在当今数字媒体时代,视频内容的管理和标记变得越来越重要,无论是研究人员需要对实验视频进行时间点标记,还是个人用户希望对家庭视频进行... 目录引言1. 应用概述2. 技术栈分析2.1 核心库和模块2.2 wxpython作为GUI选择的优

利用Python开发Markdown表格结构转换为Excel工具

《利用Python开发Markdown表格结构转换为Excel工具》在数据管理和文档编写过程中,我们经常使用Markdown来记录表格数据,但它没有Excel使用方便,所以本文将使用Python编写一... 目录1.完整代码2. 项目概述3. 代码解析3.1 依赖库3.2 GUI 设计3.3 解析 Mark

利用Go语言开发文件操作工具轻松处理所有文件

《利用Go语言开发文件操作工具轻松处理所有文件》在后端开发中,文件操作是一个非常常见但又容易出错的场景,本文小编要向大家介绍一个强大的Go语言文件操作工具库,它能帮你轻松处理各种文件操作场景... 目录为什么需要这个工具?核心功能详解1. 文件/目录存javascript在性检查2. 批量创建目录3. 文件

SpringBoot @Scheduled Cron表达式使用方式

《SpringBoot@ScheduledCron表达式使用方式》:本文主要介绍SpringBoot@ScheduledCron表达式使用方式,具有很好的参考价值,希望对大家有所帮助,如有... 目录Cron 表达式详解1. 表达式格式‌2. 特殊字符解析3. 常用示例‌4. 重点规则5. 动态与复杂场景‌