学习大数据DAY42 hive 分桶表

2024-08-22 04:36
文章标签 数据 学习 hive 分桶 day42

本文主要是介绍学习大数据DAY42 hive 分桶表,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

分桶表

分桶表注意事项

hive 分桶表-创建分桶表

hive 排序关键字

hive 排序语句

上机练习


分桶表

分区提供一个隔离数据和优化查询的便利方式。不过,并非所有的数据集都可形
成合理的分区。对于一张表或者分区,Hive 可以进一步组织成桶,也就是更为
细粒度的数据范围划分。
分桶是将数据集分解成更容易管理的若干部分的另一个技术。
分区针对的是数据的存储路径;分桶针对的是数据文件。

分桶表注意事项

分桶策略
Hive 的分桶采用对分桶字段的值进行哈希,然后除以桶的个数求余的方 式决定
该条记录存放在哪个桶当中.
reduce 的个数设置为-1,让 Job 自行决定需要用多少个 reduce 或者将 reduce 的
个数设置为大于等于分桶表的桶数
从 hdfs 中 load 数据到分桶表中,避免本地文件找不到问题
不要使用本地模式

hive 分桶表-创建分桶表

--创建 4 个分桶的分桶表
create table stu_bucket(id int, name string)
clustered by(id)
into 4 buckets
row format delimited fields terminated by '\t';
--设置 mapreduce 数量(二选一)
set mapreduce.job.reduces=3
set mapred.reduce.tasks=3
--向分桶表导入数据
load data inpath
'/student.txt' into table stu_bucket;

hive 排序关键字

hive 排序语句

--使用 order by 排序
select * from student2 order by id
--使用 sort by 排序
select * from student2 sort by class_name desc
--使用 distribute by 分组
set mapreduce.job.reduces=15;
select * from student2 distribute by class_name sort by id desc
insert overwrite
local directory '/root/student2/'
row format delimited fields terminated by '\t'
select * from student2_b
distribute by sex
sort by chinese desc
--使用 cluster by 分组并排序
select * from student2 cluster by class_name

上机练习

然而作业和分桶表并没有关系~
1 清洗函数
2 pyhive 连接函数
3 文件判断
import os,datetime
fpath='/root/'
fname1='2021-12-31.log'
fname2='2021-05-20.log'
fname3='2021-07-02.log'
fname4='2021-07-03.log'
fname5='2021-07-04.log'list_fname=[fname1,fname2,fname3,fname4,fname5]
etl_fname1=f'{fpath}etl_{fname1.strip(".log")}.txt'
etl_fname2=f'{fpath}etl_{fname2.strip(".log")}.txt'
etl_fname3=f'{fpath}etl_{fname3.strip(".log")}.txt'
etl_fname4=f'{fpath}etl_{fname4.strip(".log")}.txt'
etl_fname5=f'{fpath}etl_{fname5.strip(".log")}.txt'
list_etl_fname=[etl_fname1,etl_fname2,etl_fname3,etl_fname4,et
l_fname5]
def etl_data(fpath,fname,etl_fname):
with open(fpath+fname,'r',encoding='utf-8') as f:
with open(etl_fname,'a',encoding='utf-8') as f1:
str1=f.readlines()
for l in str1:
lit=l.split(' ')
# 提取 IP
ip=lit[0]
# 提取时间
date=datetime.datetime.strptime(lit[3],'[%d/%b/
%Y:%H:%M:%S')
date=datetime.datetime.strftime(date,'%Y-%m-%d %
H:%M:%S')
# 提取 URL
url=lit[6]
# 提取系统类型
lit1=l.split('"')
header=lit1[-2]
if header.find('Linux')>=0:
systype='Linux'
elif header.find('Mac OS')>=0:
systype='Mac OS'
elif header.find('Windows')>=0:
systype='Windows'
else:
systype='unknown'
# 提取浏览器类型
if header.find('Chrome')>=0:
browser='Chrome'
elif header.find('Firefox')>=0:
browser='Firefox'
elif header.find('Safari')>=0:
browser='Safari'
elif header.find('Presto')>=0:
browser='Presto'else:
browser='unknown'
# 写入文件
result=f'{ip}\t{date}\t{url}\t{systype}\t{brows
er}\n'
f1.write(result)
f1.close()
f.close()
if __name__=='__main__':
for i in range(5):
etl_data(fpath,list_fname[i],list_etl_fname[i])
load_sql=f"load data local inpath '{list_etl_fname[i]}'
into table log partition
(load_date='{list_fname[i].strip('.log')}')"
hive_command=f'beeline -u
"jdbc:hive2://hadoop100:10000/db_hive" -n root -p 123456 -e
"{load_sql}"'
os.system(hive_command)
4 show partitions log
5 select load_date,count(1) from log group by load_date
内存不够跑不了这句,一句一句来吧。分开写查一个都要 50 多秒。
select count ( 1 ) from log where load_date= '2021-05-20'
select count ( 1 ) from log where load_date= '2021-07-02'
select count ( 1 ) from log where load_date= '2021-07-03'
select count ( 1 ) from log where load_date= '2021-12-31'
select count ( 1 ) from log where load_date= '2021-07-04'

这篇关于学习大数据DAY42 hive 分桶表的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1095256

相关文章

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密

使用Python高效获取网络数据的操作指南

《使用Python高效获取网络数据的操作指南》网络爬虫是一种自动化程序,用于访问和提取网站上的数据,Python是进行网络爬虫开发的理想语言,拥有丰富的库和工具,使得编写和维护爬虫变得简单高效,本文将... 目录网络爬虫的基本概念常用库介绍安装库Requests和BeautifulSoup爬虫开发发送请求解

Oracle存储过程里操作BLOB的字节数据的办法

《Oracle存储过程里操作BLOB的字节数据的办法》该篇文章介绍了如何在Oracle存储过程中操作BLOB的字节数据,作者研究了如何获取BLOB的字节长度、如何使用DBMS_LOB包进行BLOB操作... 目录一、缘由二、办法2.1 基本操作2.2 DBMS_LOB包2.3 字节级操作与RAW数据类型2.

MySQL使用binlog2sql工具实现在线恢复数据功能

《MySQL使用binlog2sql工具实现在线恢复数据功能》binlog2sql是大众点评开源的一款用于解析MySQLbinlog的工具,根据不同选项,可以得到原始SQL、回滚SQL等,下面我们就来... 目录背景目标步骤准备工作恢复数据结果验证结论背景生产数据库执行 SQL 脚本,一般会经过正规的审批