hive数据新旧平台迁移

2023-12-11 10:48
文章标签 数据 平台 hive 迁移 新旧

本文主要是介绍hive数据新旧平台迁移,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

背景:年前就已经规划好了,今年要将所有的数据接入一个大的平台,新平台搭建好,将旧平台的数据迁移过去即可。此时轮到本小组将自己的旧平台数据迁移到新平台中。注:旧平台5.12,新平台6.1.1。
自己遇到的问题并解决。
1.脚本中文传参不行,会出现乱码,这个其实没根本解决。最后是将这些品类 自定义标准码 利用数字或英文来代替,在脚本中做一个if判断,变量接收传进入的。有的直接不能导出全乱码,思路是先用unicode 先将中文转成英文字符,传到另外的存储后再解码就好了。
2.由于新平台权限管制很严。有些数据得到的很耗时不可能能重新跑,导出文件再上传到新平台。导出时下载有限制最多只能10w。解决方法:
1.HIVE导出超过10万的数据.
set hive.exec.compress.output=false;
insert overwrite directory ‘/user/data_ware/tmp/CSQ’
ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t’
select * from TABLE
3.新平台只有自己的账号下有权限。其他目录创建不了文件夹。将2中的文件上传到自己的目录下,impala或hive中创建外部表
create external table if not exists uinteg_dw.map_jwd_test(id string ,detail_address string , lng string , lat string )
row format delimited fields terminated by ‘\t’
stored as textfile
location ‘/user/uintegrate/jwd’;
注意:这个row format delimited fields terminated by '\t’要与导出的规则一致。要不然创建了也改看不到数据。
再创建内部表 将外部表中数据倒入即可:
create table if not exists uinteg_dw.map_jwd as
select * from uinteg_dw.map_jwd_test
注意:问题外部表和内部表结构要一致。
4.hive中数据同步到Elasticsearch 之前用jdbc连,需要引用外部jar add jar xxxxx,报错权限不足。这种方式不行,改为hive -e来进行连。

5.将分区表中每日增量数据导出半年的数据。 导出时建分区表,会多加要分区的字段。就用循环方式而且还通用。缺点是一个循环就是一个mr很耗资源。
#!/bin/sh

********************************************************************************

程序名称: P_EXP_ALL_TEMPLATE_STATDATE

功能描述: 4.1.1 数据导出-日增量-统计日

输入参数: p_in_time_str,p_in_time_end

输入资源: hadoop.T_XXXX

输出资源: mysql.T_XXXX

中间资源:

创建人员: CSQ

创建日期:

版本说明:

修改人员:

修改日期:

修改原因:

版本说明:

********************************************************************************

程序逻辑

1. 依据输入参数(数据源,开始日期,结束日期),将hadoop平台的报表导入到mysql对应表去

********************************************************************************

#引用公共参数,获取下游数据库权限赋值
source P_PARAMETER_EXP_DB_MYSQL_TEST.sh
source P_PARAMETER_SHARE.sh
export HADOOP_USER_NAME=uintegrate
vc_tablename=$1
ve_tablename=$2

if [ KaTeX parse error: Expected 'EOF', got '#' at position 1: #̲ -eq 2 ]; the…p_in_time_str
elif [ $# -eq 3 ];
then
p_in_time_str=$3
p_in_time_end=$3
elif [ $# -eq 4 ];
then
p_in_time_str=$3
p_in_time_end=$4
else
p_in_time_str=‘1901-01-01 00:00:00’
p_in_time_end=‘1901-01-01 00:00:00’
fi

vi_stat_st=date -d $p_in_time_str +%Y-%m-%d
vi_stat_ed=date -d $p_in_time_end +%Y-%m-%d

#获取链接信息,里面包含 ip,端口,用户,密码,数据库
dblist=${VC_DBLIST}

dbhost=echo "${dblist}" |awk -F, '{print $1}'
dbport=echo "${dblist}" |awk -F, '{print $2}'
dbuser=echo "${dblist}" |awk -F, '{print $3}'
dbpw=echo "${dblist}" |awk -F, '{print $4}'
dbname=echo "${dblist}" |awk -F, '{print $5}'

echo “ p i n t i m e s t r " , " p_in_time_str"," pintimestr","p_in_time_end”,“ v i s t a t s t " , " vi_stat_st"," vistatst","vi_stat_ed”

while [[ $vi_stat_st < date -d "+1 day $vi_stat_ed" +%Y-%m-%d ]]
do
echo KaTeX parse error: Expected '}', got 'EOF' at end of input: …/uinteg_ods.db/vc_tablename/createtime=$vi_stat_st
if [ ? − e q 0 ] ; t h e n s q o o p e x p o r t − − c o n n e c t &quot; j d b c : m y s q l : / / ? -eq 0 ]; then sqoop export --connect &quot;jdbc:mysql:// ?eq0];thensqoopexportconnect"jdbc:mysql://{dbhost}: d b p o r t / {dbport}/ dbport/{dbname}?useUnicode=true&characterEncoding=utf-8" --username ${dbuser} --password ${dbpw} --table v e t a b l e n a m e − − e x p o r t − d i r / u s e r / h i v e / w a r e h o u s e / u i n t e g o d s . d b / {ve_tablename} --export-dir /user/hive/warehouse/uinteg_ods.db/ vetablenameexportdir/user/hive/warehouse/uintegods.db/vc_tablename/createtime=KaTeX parse error: Expected 'EOF', got '\0' at position 42: …terminated-by '\̲0̲01' --input-nul…vc_tablename/createtime=$vi_stat_st exists’
fi
}&&
{
vi_stat_st=date -d "+1 day $vi_stat_st" +%Y-%m-%d
}
done

做完后思考其实还可以用另一种方式:加就加分区,半年的整合成一张表,导出文件,上传到新平台,建一个外部表,再用3不过*不能用了,选择要的字段。

其他的还在继续。

这篇关于hive数据新旧平台迁移的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/480421

相关文章

详谈redis跟数据库的数据同步问题

《详谈redis跟数据库的数据同步问题》文章讨论了在Redis和数据库数据一致性问题上的解决方案,主要比较了先更新Redis缓存再更新数据库和先更新数据库再更新Redis缓存两种方案,文章指出,删除R... 目录一、Redis 数据库数据一致性的解决方案1.1、更新Redis缓存、删除Redis缓存的区别二

Redis事务与数据持久化方式

《Redis事务与数据持久化方式》该文档主要介绍了Redis事务和持久化机制,事务通过将多个命令打包执行,而持久化则通过快照(RDB)和追加式文件(AOF)两种方式将内存数据保存到磁盘,以防止数据丢失... 目录一、Redis 事务1.1 事务本质1.2 数据库事务与redis事务1.2.1 数据库事务1.

Oracle Expdp按条件导出指定表数据的方法实例

《OracleExpdp按条件导出指定表数据的方法实例》:本文主要介绍Oracle的expdp数据泵方式导出特定机构和时间范围的数据,并通过parfile文件进行条件限制和配置,文中通过代码介绍... 目录1.场景描述 2.方案分析3.实验验证 3.1 parfile文件3.2 expdp命令导出4.总结

更改docker默认数据目录的方法步骤

《更改docker默认数据目录的方法步骤》本文主要介绍了更改docker默认数据目录的方法步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1.查看docker是否存在并停止该服务2.挂载镜像并安装rsync便于备份3.取消挂载备份和迁

不删数据还能合并磁盘? 让电脑C盘D盘合并并保留数据的技巧

《不删数据还能合并磁盘?让电脑C盘D盘合并并保留数据的技巧》在Windows操作系统中,合并C盘和D盘是一个相对复杂的任务,尤其是当你不希望删除其中的数据时,幸运的是,有几种方法可以实现这一目标且在... 在电脑生产时,制造商常为C盘分配较小的磁盘空间,以确保软件在运行过程中不会出现磁盘空间不足的问题。但在

Java如何接收并解析HL7协议数据

《Java如何接收并解析HL7协议数据》文章主要介绍了HL7协议及其在医疗行业中的应用,详细描述了如何配置环境、接收和解析数据,以及与前端进行交互的实现方法,文章还分享了使用7Edit工具进行调试的经... 目录一、前言二、正文1、环境配置2、数据接收:HL7Monitor3、数据解析:HL7Busines

Mybatis拦截器如何实现数据权限过滤

《Mybatis拦截器如何实现数据权限过滤》本文介绍了MyBatis拦截器的使用,通过实现Interceptor接口对SQL进行处理,实现数据权限过滤功能,通过在本地线程变量中存储数据权限相关信息,并... 目录背景基础知识MyBATis 拦截器介绍代码实战总结背景现在的项目负责人去年年底离职,导致前期规

Redis KEYS查询大批量数据替代方案

《RedisKEYS查询大批量数据替代方案》在使用Redis时,KEYS命令虽然简单直接,但其全表扫描的特性在处理大规模数据时会导致性能问题,甚至可能阻塞Redis服务,本文将介绍SCAN命令、有序... 目录前言KEYS命令问题背景替代方案1.使用 SCAN 命令2. 使用有序集合(Sorted Set)

SpringBoot整合Canal+RabbitMQ监听数据变更详解

《SpringBoot整合Canal+RabbitMQ监听数据变更详解》在现代分布式系统中,实时获取数据库的变更信息是一个常见的需求,本文将介绍SpringBoot如何通过整合Canal和Rabbit... 目录需求步骤环境搭建整合SpringBoot与Canal实现客户端Canal整合RabbitMQSp

MyBatis框架实现一个简单的数据查询操作

《MyBatis框架实现一个简单的数据查询操作》本文介绍了MyBatis框架下进行数据查询操作的详细步骤,括创建实体类、编写SQL标签、配置Mapper、开启驼峰命名映射以及执行SQL语句等,感兴趣的... 基于在前面几章我们已经学习了对MyBATis进行环境配置,并利用SqlSessionFactory核