DataX的如何使用hdfsreader/writer

2024-09-07 16:20
文章标签 使用 datax writer hdfsreader

本文主要是介绍DataX的如何使用hdfsreader/writer,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

说明:DataX的hdfs读取或写入一般用的比较少,国内用datax通常都是用它完成数据仓库之间的数据迁移,很少以文件的形式直接迁移,对于hdfs来讲,datax提供了hdfsreader和hdfswriter,本篇以文件的方式导入或导出hive数据为例,展示datax的hdfsreader/writer怎么用,因为整体的技术大环境下使得datax提供的hdfsreader/writer也是以结构化数据的方式传递文件,但是要提前说明的是,虽然hive不是数据库,它只是hdfs数据的结构化管理工具,但是hive支持jdbc的形式使用,所以datax默认没有自带所谓的hivereader/writer,如果你的技术环境很干净的场景下,例如你使用的就是原生的或者hdp这种定制化不高,一般用在基础架构上的技术环境的话,你可以直接采用jdbcreader/writer去迁移hive数据。本篇只是为了展示hdfsreader/writer如何写任务Json配置,所以借用hive为使用例子,因为它底层就是hdfs的文件。同样的正是因为datax本身并没有自带所谓的hivereader/writer,所以如大家在工作中使用的中台之类的产品,你看到的日志中输出的hivereader之类的配置,那都是中台自己的RD二次开发的,同时datax本身也支持用户二次开发reader/writer。言归正传,用hive为例hdfsreader/writer使用方式如下。

第一种:全字段数据,源数据hive,目的库关系型数据库,比如mysql。全表时hdfsreader的column可以简写为*

{"job": {"content": [{"reader": {"name": "hdfsreader", "parameter": {"column": ["*"], "defaultFS": "hdfs://hdp1:9000","encoding": "UTF-8","fieldDelimiter": ",","fileType": "text","path": "/hiveData/test"}}, "writer": {"name": "mysqlwriter", "parameter": {"column": ["id","name","sex"], "connection": [{"jdbcUrl": "jdbc:mysql://192.168.0.103:3306/shop?useUnicode=true&characterEncoding=utf8", "table": ["test"]}], "password": "123456", "username": "root", "writeMode": "insert"}}}], "setting": {"speed": {"channel": "1"}}}
}

第二种,部分字段,源数据hive,目的库关系型数据库,比如mysql。

{"job": {"content": [{"reader": {"name": "hdfsreader", "parameter": {"column": [{"index":1,"name": "name", "type": "string"},{"index":2,"name": "sex", "type": "string"},], "defaultFS": "hdfs://hdp1:9000","encoding": "UTF-8","fieldDelimiter": ",","fileType": "text","path": "/hiveData/test"}}, "writer": {"name": "mysqlwriter", "parameter": {"column": ["name","sex"], "connection": [{"jdbcUrl": "jdbc:mysql://192.168.0.103:3306/shop?useUnicode=true&characterEncoding=utf8", "table": ["test"]}], "password": "123456", "username": "root", "writeMode": "insert"}}}], "setting": {"speed": {"channel": "1"}}}
}

如果你要对,目的端在数据落库之前做一些预处理,可以在writer的Json部分写如下配置,比如要删掉目的mysql表中的一些数据

"preSql": ["delete from paper_avgtimeandscore where s='1' "
]

从hive数据里抽,一般就上面这两种情况,注意原生情况下hdfsreader是没有提供数据过滤能力,就是where,因为抽取的时候一般都是按分区抽,或者干脆就是全量,对于where的需求在hive里面就已经解决了,一般是做一个dwd报表,说白了数据从hive出来的时候就没有where的业务必要,所以hdfsreader就不含有这种能力,除非向开头说的那样市场上存在的第三方hivereader插件。

第三种:从其他数据端抽取数据落到hive中,比如从mysql抽,最后落库到hive

{"job": {"setting": {"speed": {"channel": 1}},"content": [{"reader": {"name": "mysqlreader","parameter": {"username": "root","password": "123456","connection": [{"jdbcUrl": ["jdbc:mysql://192.168.0.103:3306/shop?useUnicode=true&characterEncoding=utf8"],"querySql": ["SELECT id, name, sex FROM your_table_name"]}]}},"writer": {"name": "hdfswriter","parameter": {"defaultFS": "hdfs://hdp1:9000","fileType": "text","path": "/hiveData/test","fileName": "part-0101","column": [{"name": "id", "type": "string"},{"name": "name", "type": "string"},{"name": "sex", "type": "string"}],"fieldDelimiter": ",","writeFormat": "text","writeMode": "append"}}}]}
}

无论是你导入还导出一定要注意的点:两端的列名定义,一定要一一对应,比方说hdfsreader的column中,你可以不定义name属性,但必须定义index,index的值是hdfs文件中列的下标,并且每一个column中的Json对象,要和输出端,如在本例中是mysqlwriter的column部分一一对应,不能错列,就是说你reader端第一个column定义的是hdfs文件中下标为2的列,那么下面输出端的column中第一个也必须是hdfs文件中下标为2这一列数据你希望对应的列,反过来也是一样的,DataX不会给你自动识别位置的,因为人家本身就是为了文件传递而存在,开发用意上就没考虑hive。因此它没办法在其他数据库导入数据到hive时,完成部分字段导入,要实现这一点就要去自定义hivereader或者用jdbc了,你直接用hdfswriter写的话会发现数据任然是顺序依次的系列化,和列明对不上的。而hive数据导出到其他数据库的时候可以部分字段导,那是因为本质上输出端还是用的对应数据库的jdbc,只不过列名的顺序是你提供的罢了

在使用DataX的时候,对于高可用的Hadoop集群,要注意一点,我上面写的例子都是直接指定的namenode,如果你要把抽取程序运行到高可用的集群上的话,就要在hdfswriter或hdfsreader的parameter中加如下配置,既高可用namenode节点的配置信息,当然配置改成你自己的

"hadoopConfig":{"dfs.nameservices": "mycluster","dfs.ha.namenodes.mycluster": "nn1,nn2","dfs.namenode.rpc-address.mycluster.nn1": "hadoop101:8020","dfs.namenode.rpc-address.mycluster.nn2": "hadoop102:8020","dfs.client.failover.proxy.provider.mycluster": "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"
}

然后上面json文件里defaultFS也就写高可用逻辑组名就行

"defaultFS": "hdfs://mycluster",

之所以要这么干,是因为DataX不去识别你的本地Hadoop配置,或者是HOME,它本身就允许你不在Hadoop集群节点上跑数据。

这篇关于DataX的如何使用hdfsreader/writer的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1145551

相关文章

使用DeepSeek API 结合VSCode提升开发效率

《使用DeepSeekAPI结合VSCode提升开发效率》:本文主要介绍DeepSeekAPI与VisualStudioCode(VSCode)结合使用,以提升软件开发效率,具有一定的参考价值... 目录引言准备工作安装必要的 VSCode 扩展配置 DeepSeek API1. 创建 API 请求文件2.

使用TomCat,service输出台出现乱码的解决

《使用TomCat,service输出台出现乱码的解决》本文介绍了解决Tomcat服务输出台中文乱码问题的两种方法,第一种方法是修改`logging.properties`文件中的`prefix`和`... 目录使用TomCat,service输出台出现乱码问题1解决方案问题2解决方案总结使用TomCat,

解决IDEA使用springBoot创建项目,lombok标注实体类后编译无报错,但是运行时报错问题

《解决IDEA使用springBoot创建项目,lombok标注实体类后编译无报错,但是运行时报错问题》文章详细描述了在使用lombok的@Data注解标注实体类时遇到编译无误但运行时报错的问题,分析... 目录问题分析问题解决方案步骤一步骤二步骤三总结问题使用lombok注解@Data标注实体类,编译时

Java中使用Java Mail实现邮件服务功能示例

《Java中使用JavaMail实现邮件服务功能示例》:本文主要介绍Java中使用JavaMail实现邮件服务功能的相关资料,文章还提供了一个发送邮件的示例代码,包括创建参数类、邮件类和执行结... 目录前言一、历史背景二编程、pom依赖三、API说明(一)Session (会话)(二)Message编程客

C++中使用vector存储并遍历数据的基本步骤

《C++中使用vector存储并遍历数据的基本步骤》C++标准模板库(STL)提供了多种容器类型,包括顺序容器、关联容器、无序关联容器和容器适配器,每种容器都有其特定的用途和特性,:本文主要介绍C... 目录(1)容器及简要描述‌php顺序容器‌‌关联容器‌‌无序关联容器‌(基于哈希表):‌容器适配器‌:(

使用Python实现高效的端口扫描器

《使用Python实现高效的端口扫描器》在网络安全领域,端口扫描是一项基本而重要的技能,通过端口扫描,可以发现目标主机上开放的服务和端口,这对于安全评估、渗透测试等有着不可忽视的作用,本文将介绍如何使... 目录1. 端口扫描的基本原理2. 使用python实现端口扫描2.1 安装必要的库2.2 编写端口扫

使用Python实现操作mongodb详解

《使用Python实现操作mongodb详解》这篇文章主要为大家详细介绍了使用Python实现操作mongodb的相关知识,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、示例二、常用指令三、遇到的问题一、示例from pymongo import MongoClientf

SQL Server使用SELECT INTO实现表备份的代码示例

《SQLServer使用SELECTINTO实现表备份的代码示例》在数据库管理过程中,有时我们需要对表进行备份,以防数据丢失或修改错误,在SQLServer中,可以使用SELECTINT... 在数据库管理过程中,有时我们需要对表进行备份,以防数据丢失或修改错误。在 SQL Server 中,可以使用 SE

使用Python合并 Excel单元格指定行列或单元格范围

《使用Python合并Excel单元格指定行列或单元格范围》合并Excel单元格是Excel数据处理和表格设计中的一项常用操作,本文将介绍如何通过Python合并Excel中的指定行列或单... 目录python Excel库安装Python合并Excel 中的指定行Python合并Excel 中的指定列P

浅析Rust多线程中如何安全的使用变量

《浅析Rust多线程中如何安全的使用变量》这篇文章主要为大家详细介绍了Rust如何在线程的闭包中安全的使用变量,包括共享变量和修改变量,文中的示例代码讲解详细,有需要的小伙伴可以参考下... 目录1. 向线程传递变量2. 多线程共享变量引用3. 多线程中修改变量4. 总结在Rust语言中,一个既引人入胜又可