【Flink-Sql-Kafka-To-ClickHouse】使用 FlinkSql 将 Kafka 数据写入 ClickHouse

2023-12-16 13:28

本文主要是介绍【Flink-Sql-Kafka-To-ClickHouse】使用 FlinkSql 将 Kafka 数据写入 ClickHouse,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

【Flink-Sql-Kafka-To-ClickHouse】使用 FlinkSql 将 Kafka 数据写入 ClickHouse

  • 1)需求分析
  • 2)功能实现
  • 3)准备工作
    • 3.1.Kafka
    • 3.2.ClickHouse
  • 4)Flink-Sql
  • 5)验证

1)需求分析

1、数据源为 Kafka,定义 Kafka-Topic 为动态临时视图表。

2、写入到 ClickHouse,自定义 Sink 表。

3、source 和 sink 都使用 Flink 集成的 Connector

2)功能实现

导入ClickHouse连接器

<dependency><groupId>com.aliyun</groupId><artifactId>flink-connector-clickhouse</artifactId><version>1.14.0</version>
</dependency>

如果在服务器上执行,需要将 jar 放到 Flink 的 lib 目录下。

3)准备工作

3.1.Kafka

1、创建好Topic

2、准备测试数据

{"id": 1,"eventId": "TEST123","eventStDt": "2022-11-3023:37:49","bak6": "测试","bak7": "https://test?user","businessId": "17279811111111111111111111111111","phone": "12345678910","bak1": "1234","bak2": "2022-12-0100:00:00","bak13": "17279811111111111111111111111111","bak14": "APP","bak11": "TEST"
}

3.2.ClickHouse

1、创建表(此处我们使用生产环境中较为常用的 cluster 集群模式建表)

注意集群模式要创建两次表,一次为 local 本地表,一次为 cluster 集群表。

  • local
CREATE TABLE test.kafka2ck_test_local on cluster test_cluster 
(`id` UInt32,`eventId` LowCardinality(Nullable(String)),`eventStDt` LowCardinality(Nullable(String)),`bak6` LowCardinality(Nullable(String)),`bak7` LowCardinality(Nullable(String)),`businessId` LowCardinality(Nullable(String)),`phone` LowCardinality(Nullable(String)),`bak1` LowCardinality(Nullable(String)),`bak2` LowCardinality(Nullable(String)),`bak13` LowCardinality(Nullable(String)),`bak14` LowCardinality(Nullable(String)),`bak11` LowCardinality(Nullable(String))
)
ENGINE = ReplicatedMergeTree
PARTITION BY id
PRIMARY KEY id
ORDER BY id
SETTINGS index_granularity = 8192;
  • cluster
CREATE TABLE test.kafka2ck_test on cluster test_cluster 
(`id` UInt32,`eventId` LowCardinality(Nullable(String)),`eventStDt` LowCardinality(Nullable(String)),`bak6` LowCardinality(Nullable(String)),`bak7` LowCardinality(Nullable(String)),`businessId` LowCardinality(Nullable(String)),`phone` LowCardinality(Nullable(String)),`bak1` LowCardinality(Nullable(String)),`bak2` LowCardinality(Nullable(String)),`bak13` LowCardinality(Nullable(String)),`bak14` LowCardinality(Nullable(String)),`bak11` LowCardinality(Nullable(String))
)
ENGINE = Distributed('test_cluster', 'test', 'kafka2ck_test_local', rand());

4)Flink-Sql

  • source
CREATE TABLE source_kafka_test (id INT,eventId STRING,eventStDt STRING,bak6 STRING,bak7 STRING,businessId STRING,phone STRING,bak1 STRING,bak2 STRING,bak13 STRING,bak14 STRING,bak11 STRING) WITH ('connector' = 'kafka','topic' = 'test','format'='json','properties.bootstrap.servers' = '${kafka-bootstrap-server}','properties.group.id' = 'test01','scan.startup.mode' = 'earliest-offset','properties.security.protocol' = 'SASL_PLAINTEXT','properties.sasl.kerberos.service.name' = 'kafka'
);
  • sink
CREATE TABLE sink_ck_test (id INT,eventId STRING,eventStDt STRING,bak6 STRING,bak7 STRING,businessId STRING,phone STRING,bak1 STRING,bak2 STRING,bak13 STRING,bak14 STRING,bak11 STRING,PRIMARY KEY (id) NOT ENFORCED) WITH ('connector' = 'clickhouse','url' = 'jdbc:clickhouse://123.1.1.1:9090','database-name'='test','table-name' = 'kafka2ck_test_local','username' = 'test','password' = '123456','sink.batch-size' = '100','sink.flush-interval' = '1000','sink.max-retries' = '3'
);
  • insert
insert into sink_ck_test select * from source_kafka_test;

5)验证

在 Kafka 中写入对应 ClickHouse 格式的 Json 测试数据,观察 ClickHouse 中是否有数据写入。

{"id": 1,"eventId": "TEST123","eventStDt": "2022-11-3023:37:49","bak6": "测试","bak7": "https://test?user","businessId": "17279811111111111111111111111111","phone": "12345678910","bak1": "1234","bak2": "2022-12-0100:00:00","bak13": "17279811111111111111111111111111","bak14": "APP","bak11": "TEST"
}

这篇关于【Flink-Sql-Kafka-To-ClickHouse】使用 FlinkSql 将 Kafka 数据写入 ClickHouse的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/500635

相关文章

MySQL字符串转数值的方法全解析

《MySQL字符串转数值的方法全解析》在MySQL开发中,字符串与数值的转换是高频操作,本文从隐式转换原理、显式转换方法、典型场景案例、风险防控四个维度系统梳理,助您精准掌握这一核心技能,需要的朋友可... 目录一、隐式转换:自动但需警惕的&ld编程quo;双刃剑”二、显式转换:三大核心方法详解三、典型场景

MySQL中between and的基本用法、范围查询示例详解

《MySQL中betweenand的基本用法、范围查询示例详解》BETWEENAND操作符在MySQL中用于选择在两个值之间的数据,包括边界值,它支持数值和日期类型,示例展示了如何使用BETWEEN... 目录一、between and语法二、使用示例2.1、betwphpeen and数值查询2.2、be

python中的flask_sqlalchemy的使用及示例详解

《python中的flask_sqlalchemy的使用及示例详解》文章主要介绍了在使用SQLAlchemy创建模型实例时,通过元类动态创建实例的方式,并说明了如何在实例化时执行__init__方法,... 目录@orm.reconstructorSQLAlchemy的回滚关联其他模型数据库基本操作将数据添

Spring配置扩展之JavaConfig的使用小结

《Spring配置扩展之JavaConfig的使用小结》JavaConfig是Spring框架中基于纯Java代码的配置方式,用于替代传统的XML配置,通过注解(如@Bean)定义Spring容器的组... 目录JavaConfig 的概念什么是JavaConfig?为什么使用 JavaConfig?Jav

MySQL快速复制一张表的四种核心方法(包括表结构和数据)

《MySQL快速复制一张表的四种核心方法(包括表结构和数据)》本文详细介绍了四种复制MySQL表(结构+数据)的方法,并对每种方法进行了对比分析,适用于不同场景和数据量的复制需求,特别是针对超大表(1... 目录一、mysql 复制表(结构+数据)的 4 种核心方法(面试结构化回答)方法 1:CREATE

详解C++ 存储二进制数据容器的几种方法

《详解C++存储二进制数据容器的几种方法》本文主要介绍了详解C++存储二进制数据容器,包括std::vector、std::array、std::string、std::bitset和std::ve... 目录1.std::vector<uint8_t>(最常用)特点:适用场景:示例:2.std::arra

Java使用Spire.Doc for Java实现Word自动化插入图片

《Java使用Spire.DocforJava实现Word自动化插入图片》在日常工作中,Word文档是不可或缺的工具,而图片作为信息传达的重要载体,其在文档中的插入与布局显得尤为关键,下面我们就来... 目录1. Spire.Doc for Java库介绍与安装2. 使用特定的环绕方式插入图片3. 在指定位

Springboot3 ResponseEntity 完全使用案例

《Springboot3ResponseEntity完全使用案例》ResponseEntity是SpringBoot中控制HTTP响应的核心工具——它能让你精准定义响应状态码、响应头、响应体,相比... 目录Spring Boot 3 ResponseEntity 完全使用教程前置准备1. 项目基础依赖(M

Java使用Spire.Barcode for Java实现条形码生成与识别

《Java使用Spire.BarcodeforJava实现条形码生成与识别》在现代商业和技术领域,条形码无处不在,本教程将引导您深入了解如何在您的Java项目中利用Spire.Barcodefor... 目录1. Spire.Barcode for Java 简介与环境配置2. 使用 Spire.Barco

SQL Server中行转列方法详细讲解

《SQLServer中行转列方法详细讲解》SQL行转列、列转行可以帮助我们更方便地处理数据,生成需要的报表和结果集,:本文主要介绍SQLServer中行转列方法的相关资料,需要的朋友可以参考下... 目录前言一、为什么需要行转列二、行转列的基本概念三、使用PIVOT运算符进行行转列1.创建示例数据表并插入数