学习大数据DAY42 hive 分桶表

2024-08-22 04:36
文章标签 数据 学习 hive 分桶 day42

本文主要是介绍学习大数据DAY42 hive 分桶表,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

分桶表

分桶表注意事项

hive 分桶表-创建分桶表

hive 排序关键字

hive 排序语句

上机练习


分桶表

分区提供一个隔离数据和优化查询的便利方式。不过,并非所有的数据集都可形
成合理的分区。对于一张表或者分区,Hive 可以进一步组织成桶,也就是更为
细粒度的数据范围划分。
分桶是将数据集分解成更容易管理的若干部分的另一个技术。
分区针对的是数据的存储路径;分桶针对的是数据文件。

分桶表注意事项

分桶策略
Hive 的分桶采用对分桶字段的值进行哈希,然后除以桶的个数求余的方 式决定
该条记录存放在哪个桶当中.
reduce 的个数设置为-1,让 Job 自行决定需要用多少个 reduce 或者将 reduce 的
个数设置为大于等于分桶表的桶数
从 hdfs 中 load 数据到分桶表中,避免本地文件找不到问题
不要使用本地模式

hive 分桶表-创建分桶表

--创建 4 个分桶的分桶表
create table stu_bucket(id int, name string)
clustered by(id)
into 4 buckets
row format delimited fields terminated by '\t';
--设置 mapreduce 数量(二选一)
set mapreduce.job.reduces=3
set mapred.reduce.tasks=3
--向分桶表导入数据
load data inpath
'/student.txt' into table stu_bucket;

hive 排序关键字

hive 排序语句

--使用 order by 排序
select * from student2 order by id
--使用 sort by 排序
select * from student2 sort by class_name desc
--使用 distribute by 分组
set mapreduce.job.reduces=15;
select * from student2 distribute by class_name sort by id desc
insert overwrite
local directory '/root/student2/'
row format delimited fields terminated by '\t'
select * from student2_b
distribute by sex
sort by chinese desc
--使用 cluster by 分组并排序
select * from student2 cluster by class_name

上机练习

然而作业和分桶表并没有关系~
1 清洗函数
2 pyhive 连接函数
3 文件判断
import os,datetime
fpath='/root/'
fname1='2021-12-31.log'
fname2='2021-05-20.log'
fname3='2021-07-02.log'
fname4='2021-07-03.log'
fname5='2021-07-04.log'list_fname=[fname1,fname2,fname3,fname4,fname5]
etl_fname1=f'{fpath}etl_{fname1.strip(".log")}.txt'
etl_fname2=f'{fpath}etl_{fname2.strip(".log")}.txt'
etl_fname3=f'{fpath}etl_{fname3.strip(".log")}.txt'
etl_fname4=f'{fpath}etl_{fname4.strip(".log")}.txt'
etl_fname5=f'{fpath}etl_{fname5.strip(".log")}.txt'
list_etl_fname=[etl_fname1,etl_fname2,etl_fname3,etl_fname4,et
l_fname5]
def etl_data(fpath,fname,etl_fname):
with open(fpath+fname,'r',encoding='utf-8') as f:
with open(etl_fname,'a',encoding='utf-8') as f1:
str1=f.readlines()
for l in str1:
lit=l.split(' ')
# 提取 IP
ip=lit[0]
# 提取时间
date=datetime.datetime.strptime(lit[3],'[%d/%b/
%Y:%H:%M:%S')
date=datetime.datetime.strftime(date,'%Y-%m-%d %
H:%M:%S')
# 提取 URL
url=lit[6]
# 提取系统类型
lit1=l.split('"')
header=lit1[-2]
if header.find('Linux')>=0:
systype='Linux'
elif header.find('Mac OS')>=0:
systype='Mac OS'
elif header.find('Windows')>=0:
systype='Windows'
else:
systype='unknown'
# 提取浏览器类型
if header.find('Chrome')>=0:
browser='Chrome'
elif header.find('Firefox')>=0:
browser='Firefox'
elif header.find('Safari')>=0:
browser='Safari'
elif header.find('Presto')>=0:
browser='Presto'else:
browser='unknown'
# 写入文件
result=f'{ip}\t{date}\t{url}\t{systype}\t{brows
er}\n'
f1.write(result)
f1.close()
f.close()
if __name__=='__main__':
for i in range(5):
etl_data(fpath,list_fname[i],list_etl_fname[i])
load_sql=f"load data local inpath '{list_etl_fname[i]}'
into table log partition
(load_date='{list_fname[i].strip('.log')}')"
hive_command=f'beeline -u
"jdbc:hive2://hadoop100:10000/db_hive" -n root -p 123456 -e
"{load_sql}"'
os.system(hive_command)
4 show partitions log
5 select load_date,count(1) from log group by load_date
内存不够跑不了这句,一句一句来吧。分开写查一个都要 50 多秒。
select count ( 1 ) from log where load_date= '2021-05-20'
select count ( 1 ) from log where load_date= '2021-07-02'
select count ( 1 ) from log where load_date= '2021-07-03'
select count ( 1 ) from log where load_date= '2021-12-31'
select count ( 1 ) from log where load_date= '2021-07-04'

这篇关于学习大数据DAY42 hive 分桶表的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1095256

相关文章

Java学习手册之Filter和Listener使用方法

《Java学习手册之Filter和Listener使用方法》:本文主要介绍Java学习手册之Filter和Listener使用方法的相关资料,Filter是一种拦截器,可以在请求到达Servl... 目录一、Filter(过滤器)1. Filter 的工作原理2. Filter 的配置与使用二、Listen

Pandas统计每行数据中的空值的方法示例

《Pandas统计每行数据中的空值的方法示例》处理缺失数据(NaN值)是一个非常常见的问题,本文主要介绍了Pandas统计每行数据中的空值的方法示例,具有一定的参考价值,感兴趣的可以了解一下... 目录什么是空值?为什么要统计空值?准备工作创建示例数据统计每行空值数量进一步分析www.chinasem.cn处

如何使用 Python 读取 Excel 数据

《如何使用Python读取Excel数据》:本文主要介绍使用Python读取Excel数据的详细教程,通过pandas和openpyxl,你可以轻松读取Excel文件,并进行各种数据处理操... 目录使用 python 读取 Excel 数据的详细教程1. 安装必要的依赖2. 读取 Excel 文件3. 读

Spring 请求之传递 JSON 数据的操作方法

《Spring请求之传递JSON数据的操作方法》JSON就是一种数据格式,有自己的格式和语法,使用文本表示一个对象或数组的信息,因此JSON本质是字符串,主要负责在不同的语言中数据传递和交换,这... 目录jsON 概念JSON 语法JSON 的语法JSON 的两种结构JSON 字符串和 Java 对象互转

C++如何通过Qt反射机制实现数据类序列化

《C++如何通过Qt反射机制实现数据类序列化》在C++工程中经常需要使用数据类,并对数据类进行存储、打印、调试等操作,所以本文就来聊聊C++如何通过Qt反射机制实现数据类序列化吧... 目录设计预期设计思路代码实现使用方法在 C++ 工程中经常需要使用数据类,并对数据类进行存储、打印、调试等操作。由于数据类

SpringBoot使用GZIP压缩反回数据问题

《SpringBoot使用GZIP压缩反回数据问题》:本文主要介绍SpringBoot使用GZIP压缩反回数据问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录SpringBoot使用GZIP压缩反回数据1、初识gzip2、gzip是什么,可以干什么?3、Spr

SpringBoot集成Milvus实现数据增删改查功能

《SpringBoot集成Milvus实现数据增删改查功能》milvus支持的语言比较多,支持python,Java,Go,node等开发语言,本文主要介绍如何使用Java语言,采用springboo... 目录1、Milvus基本概念2、添加maven依赖3、配置yml文件4、创建MilvusClient

SpringValidation数据校验之约束注解与分组校验方式

《SpringValidation数据校验之约束注解与分组校验方式》本文将深入探讨SpringValidation的核心功能,帮助开发者掌握约束注解的使用技巧和分组校验的高级应用,从而构建更加健壮和可... 目录引言一、Spring Validation基础架构1.1 jsR-380标准与Spring整合1

MySQL 中查询 VARCHAR 类型 JSON 数据的问题记录

《MySQL中查询VARCHAR类型JSON数据的问题记录》在数据库设计中,有时我们会将JSON数据存储在VARCHAR或TEXT类型字段中,本文将详细介绍如何在MySQL中有效查询存储为V... 目录一、问题背景二、mysql jsON 函数2.1 常用 JSON 函数三、查询示例3.1 基本查询3.2

SpringBatch数据写入实现

《SpringBatch数据写入实现》SpringBatch通过ItemWriter接口及其丰富的实现,提供了强大的数据写入能力,本文主要介绍了SpringBatch数据写入实现,具有一定的参考价值,... 目录python引言一、ItemWriter核心概念二、数据库写入实现三、文件写入实现四、多目标写入