StarRocks实战——携程火车票指标平台建设

2024-04-04 15:44

本文主要是介绍StarRocks实战——携程火车票指标平台建设,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

前言

一、早期OLAP架构与痛点

二、指标平台重构整体设计

2.1 指标查询过程

2.1.1 明细类子查询

2.1.2 汇总类子查询

2.1.3 “缓存”

2.2 数据同步

三、Starrocks使用经验分享

3.1 建表经验

3.2 数据查询

3.3 函数问题

四、查询性能大幅提升

五、 后续优化方向


   原文大佬介绍的这篇火车票指标平台建设有借鉴意义,现摘抄下来用作沉淀学习。如有侵权,请告知~

前言

    携程火车票事业群运营着铁友、携程火车票和去哪儿火车票等重要的业务和品牌,目前正在积极地拓展海外市场。火车票的指标平台旨在为业务人员提供便捷的指标查询服务,让业务人员能够快速灵活的获得这些业务和品牌相关的指标数据。

一、早期OLAP架构与痛点

  火车票事业群的业务涵盖了火车票、国际火车票、汽车票(含船票)等产品,错综复杂的业务也产生了多种多样订单和行为数据,通过对这些数据的分析可以揭示当前业务的发展现状,也可以为未来的发展提供方向指引。

  早些时候事业群开发过一套指标平台,根据不同的指标类型使用了3套数据库引擎,分别是ClickHouse,Apache Kylin (以下简称 Kylin)和 Presto,如下图所示:

   在旧版的指标平台中,为了提升查询性能使用了ClickHouse,Kylin和Presto等多种存储和查询引擎,数据层混合使用了明细层和轻度汇总层,由此带来的问题有:

  • 指标数据源混乱,容易造成口径不一致,维护成本大;
  • 学习成本高,BI 同学录入指标不仅需要了解不同存储的区别,还需要掌握不同引擎的数据同步方法
  • 架构不合理,指标平台将查询的中间结果通过jdbc写入mysql后再到服务端用java做汇总计算,处理链路过长,整体性能非常差,导致部分指标查询需要半小时以上的等待时间。

  鉴于这些原因,无论是用户(运营人员)还是指标开发人员,都面临着使用极差的问题,在这种情况下,决定使用基于一种查询速度快和使用简单的分布式数据库来重构指标平台。

二、指标平台重构整体设计

   重构指标平台首先考虑的是将多套存储合并成一套, 虽然ClickHouse 和 Kylin 已经足够强大,但是不足也很明显。比如 ClickHouse 的 join 性能不尽如人意,并发性能差,大量的查询很容易将 CPU打满;Kylin 是一个分析引擎,不支持增删改操作,修改数据需要重新导入,修改 schema 需要重建 Cube(ETL成本很高),其次 Kylin需要预先创建模型加载数据到 Cube 后才可进行查询,使用上需要具备一定的数仓知识。

于是将目光投向 StarRocks,StarRocks 是一款全场景的MPP数据库,相比ClickHouse等具有以下优点:

  • 性能强悍:查询速度快,多张亿级表Join也能秒级响应;
  • 使用简单:兼容 MySQL 协议,用户使用门槛低;
  • 支持高并发:满足大量用户同时查询;
  • 支持多种数据模型:明细、聚合、更新和主键模型,可灵活配置ETL任务
  • 支持物化视图:可以自动路由到命中的物化视图,用户无感知;
  • 支持多种导入方式:StreamLoad、SparkLoad、RoutineLoad,便于实时离线快速导入StarRocks,流批一体。

因此,重构后的结构如下:

   重构后的指标平台只有一个数据库,查询时利用StarRocks内部ETL将明细数据转存到临时表,后续的汇总从临时表查询,避免了反复扫描大表。

2.1 指标查询过程

  当一个指标查询请求发起时,由于指标属性和用户想查看的信息不同,根据查询参数将查询拆解成若干子查询,子查询分为明细和汇总两类。

2.1.1 明细类子查询

1)可累加的指标查询时间范围内的明细数据,以及去年和2019年同期的明细数据,这部分的明细会存储到临时表,后续查询都从这张表扫描,以避免对大表的频繁扫描;该表每天生成T+1 分区,防止增加分区失败导致当天的指标查询无法进行。

-tarpresqls "
ALTER TABLE ${table} ADD PARTITION if not exists p${partition}
VALUES [('${zdt.addDay(1).format("yyyy-MM-dd")}'),('${zdt.addDay(2).format("yyyy-MM-dd")}'));
" \

2)如果指标不可累加或 count(distinct)类,仅存储查询时间范围内的明细,不存储用户计算同环比的明细;

3) 当多个指标同时对相同维度进行查询时,将多个指标的数据Join后以宽表模式存储。

2.1.2 汇总类子查询

  这一类 sql 主要在明细的基础上根据用户的需要做相应的计算,相比旧版本在服务内部用java做汇总计算,这里全部借助了StarRocks,主要的汇总功能有:

  • a.指标卡汇总和同环比;
  • b.折线图和维度下钻;

2.1.3 “缓存”

   多维度特别是包含出发/到达城市组合的查询数据量非常大,耗时较长,同时避免相同的查询反复访问大表,我们增加了“缓存”功能,实现原理如下:

  • a.记录初次查询的指标信息,主要包括维度和维度值,时间范围,指标原始计算sql的md5值,以及是否查询成功;
  • b. 新的查询进入后,会在当天的记录中查找是否存在相同的查询。如果存在相同的查询,使用唯一的查询标识(groupkey)将当前查询指向上次已经执行过的查询。这样,可以直接读取上次查询的详细数据和汇总结果,从而提高查询效率。

    因此这里的缓存非真实意义上的缓存,而是直接调用相同查询的结果。

2.2 数据同步

  首先梳理了旧平台的数据源,从300+指标的逻辑sql中提取了公共的dwd和dim表51张,并将这些数据统一同步至StarRocks,而对于一些指标使用的dwd表只出现一次的,依然将dws同步过来。

  对于不同的hive表,使用了不同的StarRocks建表模型和同步方式,有以下几种:

  • a.全量同步:主要针对一些数据量小的表,例如 shareout_trn.dim_ibu_alliance,大小为 608k;
  • b.增量分区同步:每天同步 hive 表中 T-1 的分区,各分区之间独立;
  • c.更新同步:火车票 BU 的一些订单数据由于涉到预售和订单状态的变更,变更的数据时间跨度比较大,将跨度范围内的数据全部更新代价比较高,因此使用更新模型。

   数据导入更新模型直接需要计算T-1 和 T-2 分区有差异的数据,这里将所有字段使用concat_ws('|',***)拼接后取 hash值,之后Join找到hash值不一致的数据。

模型KEY设置:
UNIQUE KEY(`order_id`)
取两天有差异的数据:
select
t1.* 
from
(select … where d='${cur_day}') as t1
left join
(select … where d=’${pre_day}’) as t2
on t1.business_pk_id=t2.business_pk_id
where t1.hash_code!=t2.hash_code or t2.order_id is null
  • d. 每天同步当月数据:如国际后的访问数据量较小,每天一个分区会导致StarRocks 集群有很多小的bucket,分桶数太多会导致元数据压力比较大,数据导入导出时也会受到一些影响,因此按月设置分区,每天同步当月的数据。
时间范围:
startdate='${zdt.format("yyyy-MM-01")}'
endDate='${zdt.add(2,1).format("yyyy-MM-01")}'
表设计:
PARTITION BY RANGE(dt)(Start("2019-01-01") End("2023-03-01") Every(Interval 1 month))
DISTRIBUTED BY HASH(分桶字段) BUCKETS 桶的数量
PROPERTIES (
"dynamic_partition.enable" = "true",
"dynamic_partition.prefix" = "p",
"dynamic_partition.time_unit" = "month",
"dynamic_partition.end" = "1");
datax配置:
-temporary_partitions "tp${partition}" \
-tarpresqls "
ALTER TABLE ${table} DROP TEMPORARY PARTITION if exists tp${partition};
ALTER TABLE ${table} ADD PARTITION if not exists p${partition} VALUES [('${startdate}'),('${endDate}'));
ALTER TABLE ${table} ADD TEMPORARY PARTITION tp${partition} VALUES [('${startdate}'),('${endDate}'));
" \
-tarpostsqls "
ALTER TABLE ${table} REPLACE PARTITION (p${partition}) WITH TEMPORARY PARTITION (tp${partition});"

    此外对于 UBT类数据,数据量及非常大,并且常见用于查询PV,UV 和停留时长等比较固定的场景,于是我们从中抽取出三张表:

  • ubt_for_pv: 每天按维度汇总 count(uid),每天数据大小只有几十 K;
  • ubt_for_duration: 每天按维度汇总 sum(duration),如需要计算平均停留时长除以对应的 pv 即可;
  • ubt_for_uv: 每天按维度去重,尽最大可能减少数据量。

     最后鉴于上游表的迭代可能带来的数据的不稳定,对需要同步的表的数据量做了监控,若发现当天的数据量波动超过3sigma,监控任务自动发出邮件告警,这些 job同步都在15 分钟内完成。

三、Starrocks使用经验分享

   在指标平台重构的过程中也遇到了一些问题,与数据和查询相关的有以下几个:

3.1 建表经验

   首先是buckets设置不合理,多数是设置过多,通常一个桶的数据量在500MB~1GB 为佳,个别表设置的桶数量太少,导致查询时间长;其次是分区不合理,有些表没有设置分区,有些设置的分区后每个分区数据量很小,优化建议是将不常访问的数据按月分区,经常访问的数据按日分区。

3.2 数据查询

   由于指标的查询sql之前是针对不同引擎编写,很多引擎是没有索引的,比如Presto。StarRocks有丰富的索引功能,统一至StarRocks 希望利用索引加速查询,因此过滤条件中最好不要加函数,比如select c1 from t1 where upper(employeeid) = upper(' s1')修改成select c1 from t1 where employeeid in(upper(' s1'), lower(' s1'))。

 另外很多sql没有使用分区,在StarRocks中将会全表扫描造成资源浪费

3.3 函数问题

   StarRocks的split函数结果的下标从1开始,而 sparksql 等引擎对应的是从 0 开始,导致 sql 在 StarRocks执行查询的时候不报错但是结果错误。

select split('a,b,c',',')[0] StarRocks查询结果为空,其他引擎查询结果为‘a’
select split('a,b,c',',')[1] StarRocks查询结果为‘a’,其他引擎查询结果为‘b’

四、查询性能大幅提升

    指标平台的重构主要是为了解决查询性能问题,并且重构后也基本达到了预期。重构之后,复杂查询需要数分钟的时间才能完成,特别对于火车票相关指标,诸如出票票量指标,如果带上出发和到达城市查询,可能需要等待 30 分钟以上,并且查询失败率较高。而在重构后,查询时间大大缩短,复杂查询在 10s 左右,并且 P99 在 2 秒之内,因此整体体验得到显著提升,用户查询次数相比改造前也有了翻倍的增长。

   此外,现在新指标系统还丰富了更多功能,比如同环比和维度下钻计算。得益于StarRocks的并发能力,可以在生成子查询SQL 后并发提交,从而大幅度减少响应时间,使得用户在进行维度下钻时几乎无需等待即可快速获取所需数据。

五、 后续优化方向

1)目前,UV 类的 Count Distinct 查询是基于存储了大量明细数据的方式进行的。然而,对于部分指标,可以尝试使用Bitmap 来减少不必要的明细数据存储空间,并且更重要的是可以提高查询速度。在接下来的工作中,计划尝试这种方案,以进一步优化 UV 类指标的查询性能。

2)对于全量或增量更新的表使用聚合模型,聚合模型会对导入后具有相同维度的数据做预聚合,查询的时候减少扫描数据的行数达到提升查询速度的目的。

3)当前的指标平台计算过程将所需的数据写入临时表,后续改成使用物化视图,在达到同样效果的情况下减少了复杂度

参考文章:

干货 | 提速10倍+,StarRocks 指标平台在携程火车票的实践

这篇关于StarRocks实战——携程火车票指标平台建设的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/876189

相关文章

MyBatis分页查询实战案例完整流程

《MyBatis分页查询实战案例完整流程》MyBatis是一个强大的Java持久层框架,支持自定义SQL和高级映射,本案例以员工工资信息管理为例,详细讲解如何在IDEA中使用MyBatis结合Page... 目录1. MyBATis框架简介2. 分页查询原理与应用场景2.1 分页查询的基本原理2.1.1 分

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

SpringBoot 多环境开发实战(从配置、管理与控制)

《SpringBoot多环境开发实战(从配置、管理与控制)》本文详解SpringBoot多环境配置,涵盖单文件YAML、多文件模式、MavenProfile分组及激活策略,通过优先级控制灵活切换环境... 目录一、多环境开发基础(单文件 YAML 版)(一)配置原理与优势(二)实操示例二、多环境开发多文件版

Three.js构建一个 3D 商品展示空间完整实战项目

《Three.js构建一个3D商品展示空间完整实战项目》Three.js是一个强大的JavaScript库,专用于在Web浏览器中创建3D图形,:本文主要介绍Three.js构建一个3D商品展... 目录引言项目核心技术1. 项目架构与资源组织2. 多模型切换、交互热点绑定3. 移动端适配与帧率优化4. 可

从原理到实战解析Java Stream 的并行流性能优化

《从原理到实战解析JavaStream的并行流性能优化》本文给大家介绍JavaStream的并行流性能优化:从原理到实战的全攻略,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的... 目录一、并行流的核心原理与适用场景二、性能优化的核心策略1. 合理设置并行度:打破默认阈值2. 避免装箱

Maven中生命周期深度解析与实战指南

《Maven中生命周期深度解析与实战指南》这篇文章主要为大家详细介绍了Maven生命周期实战指南,包含核心概念、阶段详解、SpringBoot特化场景及企业级实践建议,希望对大家有一定的帮助... 目录一、Maven 生命周期哲学二、default生命周期核心阶段详解(高频使用)三、clean生命周期核心阶

Python实战之SEO优化自动化工具开发指南

《Python实战之SEO优化自动化工具开发指南》在数字化营销时代,搜索引擎优化(SEO)已成为网站获取流量的重要手段,本文将带您使用Python开发一套完整的SEO自动化工具,需要的可以了解下... 目录前言项目概述技术栈选择核心模块实现1. 关键词研究模块2. 网站技术seo检测模块3. 内容优化分析模

Java 正则表达式的使用实战案例

《Java正则表达式的使用实战案例》本文详细介绍了Java正则表达式的使用方法,涵盖语法细节、核心类方法、高级特性及实战案例,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要... 目录一、正则表达式语法详解1. 基础字符匹配2. 字符类([]定义)3. 量词(控制匹配次数)4. 边

Java Scanner类解析与实战教程

《JavaScanner类解析与实战教程》JavaScanner类(java.util包)是文本输入解析工具,支持基本类型和字符串读取,基于Readable接口与正则分隔符实现,适用于控制台、文件输... 目录一、核心设计与工作原理1.底层依赖2.解析机制A.核心逻辑基于分隔符(delimiter)和模式匹

Python内存优化的实战技巧分享

《Python内存优化的实战技巧分享》Python作为一门解释型语言,虽然在开发效率上有着显著优势,但在执行效率方面往往被诟病,然而,通过合理的内存优化策略,我们可以让Python程序的运行速度提升3... 目录前言python内存管理机制引用计数机制垃圾回收机制内存泄漏的常见原因1. 循环引用2. 全局变