hive数据新旧平台迁移

2023-12-11 10:48
文章标签 数据 平台 hive 迁移 新旧

本文主要是介绍hive数据新旧平台迁移,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

背景:年前就已经规划好了,今年要将所有的数据接入一个大的平台,新平台搭建好,将旧平台的数据迁移过去即可。此时轮到本小组将自己的旧平台数据迁移到新平台中。注:旧平台5.12,新平台6.1.1。
自己遇到的问题并解决。
1.脚本中文传参不行,会出现乱码,这个其实没根本解决。最后是将这些品类 自定义标准码 利用数字或英文来代替,在脚本中做一个if判断,变量接收传进入的。有的直接不能导出全乱码,思路是先用unicode 先将中文转成英文字符,传到另外的存储后再解码就好了。
2.由于新平台权限管制很严。有些数据得到的很耗时不可能能重新跑,导出文件再上传到新平台。导出时下载有限制最多只能10w。解决方法:
1.HIVE导出超过10万的数据.
set hive.exec.compress.output=false;
insert overwrite directory ‘/user/data_ware/tmp/CSQ’
ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t’
select * from TABLE
3.新平台只有自己的账号下有权限。其他目录创建不了文件夹。将2中的文件上传到自己的目录下,impala或hive中创建外部表
create external table if not exists uinteg_dw.map_jwd_test(id string ,detail_address string , lng string , lat string )
row format delimited fields terminated by ‘\t’
stored as textfile
location ‘/user/uintegrate/jwd’;
注意:这个row format delimited fields terminated by '\t’要与导出的规则一致。要不然创建了也改看不到数据。
再创建内部表 将外部表中数据倒入即可:
create table if not exists uinteg_dw.map_jwd as
select * from uinteg_dw.map_jwd_test
注意:问题外部表和内部表结构要一致。
4.hive中数据同步到Elasticsearch 之前用jdbc连,需要引用外部jar add jar xxxxx,报错权限不足。这种方式不行,改为hive -e来进行连。

5.将分区表中每日增量数据导出半年的数据。 导出时建分区表,会多加要分区的字段。就用循环方式而且还通用。缺点是一个循环就是一个mr很耗资源。
#!/bin/sh

********************************************************************************

程序名称: P_EXP_ALL_TEMPLATE_STATDATE

功能描述: 4.1.1 数据导出-日增量-统计日

输入参数: p_in_time_str,p_in_time_end

输入资源: hadoop.T_XXXX

输出资源: mysql.T_XXXX

中间资源:

创建人员: CSQ

创建日期:

版本说明:

修改人员:

修改日期:

修改原因:

版本说明:

********************************************************************************

程序逻辑

1. 依据输入参数(数据源,开始日期,结束日期),将hadoop平台的报表导入到mysql对应表去

********************************************************************************

#引用公共参数,获取下游数据库权限赋值
source P_PARAMETER_EXP_DB_MYSQL_TEST.sh
source P_PARAMETER_SHARE.sh
export HADOOP_USER_NAME=uintegrate
vc_tablename=$1
ve_tablename=$2

if [ KaTeX parse error: Expected 'EOF', got '#' at position 1: #̲ -eq 2 ]; the…p_in_time_str
elif [ $# -eq 3 ];
then
p_in_time_str=$3
p_in_time_end=$3
elif [ $# -eq 4 ];
then
p_in_time_str=$3
p_in_time_end=$4
else
p_in_time_str=‘1901-01-01 00:00:00’
p_in_time_end=‘1901-01-01 00:00:00’
fi

vi_stat_st=date -d $p_in_time_str +%Y-%m-%d
vi_stat_ed=date -d $p_in_time_end +%Y-%m-%d

#获取链接信息,里面包含 ip,端口,用户,密码,数据库
dblist=${VC_DBLIST}

dbhost=echo "${dblist}" |awk -F, '{print $1}'
dbport=echo "${dblist}" |awk -F, '{print $2}'
dbuser=echo "${dblist}" |awk -F, '{print $3}'
dbpw=echo "${dblist}" |awk -F, '{print $4}'
dbname=echo "${dblist}" |awk -F, '{print $5}'

echo “ p i n t i m e s t r " , " p_in_time_str"," pintimestr","p_in_time_end”,“ v i s t a t s t " , " vi_stat_st"," vistatst","vi_stat_ed”

while [[ $vi_stat_st < date -d "+1 day $vi_stat_ed" +%Y-%m-%d ]]
do
echo KaTeX parse error: Expected '}', got 'EOF' at end of input: …/uinteg_ods.db/vc_tablename/createtime=$vi_stat_st
if [ ? − e q 0 ] ; t h e n s q o o p e x p o r t − − c o n n e c t &quot; j d b c : m y s q l : / / ? -eq 0 ]; then sqoop export --connect &quot;jdbc:mysql:// ?eq0];thensqoopexportconnect"jdbc:mysql://{dbhost}: d b p o r t / {dbport}/ dbport/{dbname}?useUnicode=true&characterEncoding=utf-8" --username ${dbuser} --password ${dbpw} --table v e t a b l e n a m e − − e x p o r t − d i r / u s e r / h i v e / w a r e h o u s e / u i n t e g o d s . d b / {ve_tablename} --export-dir /user/hive/warehouse/uinteg_ods.db/ vetablenameexportdir/user/hive/warehouse/uintegods.db/vc_tablename/createtime=KaTeX parse error: Expected 'EOF', got '\0' at position 42: …terminated-by '\̲0̲01' --input-nul…vc_tablename/createtime=$vi_stat_st exists’
fi
}&&
{
vi_stat_st=date -d "+1 day $vi_stat_st" +%Y-%m-%d
}
done

做完后思考其实还可以用另一种方式:加就加分区,半年的整合成一张表,导出文件,上传到新平台,建一个外部表,再用3不过*不能用了,选择要的字段。

其他的还在继续。

这篇关于hive数据新旧平台迁移的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/480421

相关文章

C++如何通过Qt反射机制实现数据类序列化

《C++如何通过Qt反射机制实现数据类序列化》在C++工程中经常需要使用数据类,并对数据类进行存储、打印、调试等操作,所以本文就来聊聊C++如何通过Qt反射机制实现数据类序列化吧... 目录设计预期设计思路代码实现使用方法在 C++ 工程中经常需要使用数据类,并对数据类进行存储、打印、调试等操作。由于数据类

SpringBoot使用GZIP压缩反回数据问题

《SpringBoot使用GZIP压缩反回数据问题》:本文主要介绍SpringBoot使用GZIP压缩反回数据问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录SpringBoot使用GZIP压缩反回数据1、初识gzip2、gzip是什么,可以干什么?3、Spr

SpringBoot集成Milvus实现数据增删改查功能

《SpringBoot集成Milvus实现数据增删改查功能》milvus支持的语言比较多,支持python,Java,Go,node等开发语言,本文主要介绍如何使用Java语言,采用springboo... 目录1、Milvus基本概念2、添加maven依赖3、配置yml文件4、创建MilvusClient

深入理解Apache Kafka(分布式流处理平台)

《深入理解ApacheKafka(分布式流处理平台)》ApacheKafka作为现代分布式系统中的核心中间件,为构建高吞吐量、低延迟的数据管道提供了强大支持,本文将深入探讨Kafka的核心概念、架构... 目录引言一、Apache Kafka概述1.1 什么是Kafka?1.2 Kafka的核心概念二、Ka

SpringValidation数据校验之约束注解与分组校验方式

《SpringValidation数据校验之约束注解与分组校验方式》本文将深入探讨SpringValidation的核心功能,帮助开发者掌握约束注解的使用技巧和分组校验的高级应用,从而构建更加健壮和可... 目录引言一、Spring Validation基础架构1.1 jsR-380标准与Spring整合1

MySQL 中查询 VARCHAR 类型 JSON 数据的问题记录

《MySQL中查询VARCHAR类型JSON数据的问题记录》在数据库设计中,有时我们会将JSON数据存储在VARCHAR或TEXT类型字段中,本文将详细介绍如何在MySQL中有效查询存储为V... 目录一、问题背景二、mysql jsON 函数2.1 常用 JSON 函数三、查询示例3.1 基本查询3.2

SpringBatch数据写入实现

《SpringBatch数据写入实现》SpringBatch通过ItemWriter接口及其丰富的实现,提供了强大的数据写入能力,本文主要介绍了SpringBatch数据写入实现,具有一定的参考价值,... 目录python引言一、ItemWriter核心概念二、数据库写入实现三、文件写入实现四、多目标写入

使用Python将JSON,XML和YAML数据写入Excel文件

《使用Python将JSON,XML和YAML数据写入Excel文件》JSON、XML和YAML作为主流结构化数据格式,因其层次化表达能力和跨平台兼容性,已成为系统间数据交换的通用载体,本文将介绍如何... 目录如何使用python写入数据到Excel工作表用Python导入jsON数据到Excel工作表用

Mysql如何将数据按照年月分组的统计

《Mysql如何将数据按照年月分组的统计》:本文主要介绍Mysql如何将数据按照年月分组的统计方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录mysql将数据按照年月分组的统计要的效果方案总结Mysql将数据按照年月分组的统计要的效果方案① 使用 DA

鸿蒙中Axios数据请求的封装和配置方法

《鸿蒙中Axios数据请求的封装和配置方法》:本文主要介绍鸿蒙中Axios数据请求的封装和配置方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录1.配置权限 应用级权限和系统级权限2.配置网络请求的代码3.下载在Entry中 下载AxIOS4.封装Htt