ES实现百亿级数据实时分析实战案例

2024-09-06 20:08

本文主要是介绍ES实现百亿级数据实时分析实战案例,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

点击上方蓝色字体,选择“设为星标

回复”资源“获取更多资源

背景

我们小组前段时间接到一个需求,希望能够按照小时为单位,看到每个实验中各种特征(单个或组合)的覆盖率、正样本占比、负样本占比。我简单解释一下这三种指标的定义:

  • 覆盖率:所有样本中出现某一特征的样本的比例

  • 正样本占比:所有出现该特征的样本中,正样本的比例

  • 负样本占比:所有出现该特征的样本中,负样本的比例

光看这三个指标,大家可能会觉得这个需求很简单,无非就是一个简单的筛选、聚合而已。

如果真的这么简单,我也没必要写这篇文章单独记录了。问题的关键就在于,每小时有将近1亿的数据量,而我们需要保存7天的数据,数据总量预计超过了100亿

技术方案

在了解清楚需求后,我们小组马上对技术方案展开讨论,讨论过程中出现了3种方案:

  • 第一种:用Spark流式计算,计算每一种可能单个或组合特征的相关指标

  • 第二种:收到客户端请求后,遍历HDFS中相关数据,进行离线计算

  • 第三种:将数据按照实验+小时分索引存入ES,收到客户端请求后,实时计算返回

首先,第一种方案直接被diss,原因是一个实验一般会出现几百、上千个特征,而这些特征的组合何止几亿种,全部计算的话,可行性暂且不论,光是对资源的消耗就无法承受。

第二种方案,虽然技术上是可行的,但离线计算所需时间较长,对用户来说,体验并不理想。并且,为了计算目标1%的数据而要遍历所有数据,对资源也存在很大浪费。

第三种方案,将数据按照实验+小时分索引后,可以将每个索引包含的数据量降到1000万以下,再借助ES在查询、聚合方面高效的能力,应该可以实现秒级响应,并且用户体验也会非常好。

技术方案由此确定。

技术架构

1.用Spark从Kafka中接入原始数据,之后对数据进行解析,转换成我们的目标格式

2.将数据按照实验+小时分索引存入ES中

3.接受到用户请求后,将请求按照实验+特征+小时组合,创建多个异步任务,由这些异步任务并行从ES中过滤并聚合相关数据,得到结果

4.将异步任务的结果进行合并,返回给前端进行展示

代码实现

异步任务

// 启动并行任务final Map<String,List<Future<GetCoverageTask.Result>>> futures = Maps.newHashMap();for(String metric : metrics) { // 遍历要计算的指标final SampleRatio sampleRatio = getSampleRatio(metric);for (String exptId : expts) { // 遍历目标实验列表for (String id : features) { // 遍历要分析的特征final String name = getMetricsName(exptId, sampleRatio, id);final List<Future<GetCoverageTask.Result>> resultList = Lists.newArrayList();for (Date hour : coveredHours) { // 将时间按照小时进行拆分final String fieldName = getFieldName(isFect ? Constants.FACET_COLLECT : Constants.FEATURE_COLLECT, id);final GetCoverageTask task = new GetCoverageTask(exptId, fieldName, sampleRatio, hour);// 启动并行任务final Future<GetCoverageTask.Result> future = TaskExecutor.submit(task);resultList.add(future);}futures.put(name, resultList);}}}final QueryRes queryRes = new QueryRes();final Iterator<Map.Entry<String, List<Future<GetCoverageTask.Result>>>> it = futures.entrySet().iterator();while (it.hasNext()){// 省略结果处理流程}

指标计算

// 1\. 对文档进行聚合运行,分别得到基础文档的数量,以及目标文档数量final AggregationBuilder[] agg = getAggregationBuilder(sampleRatio, fieldName);final SearchSourceBuilder searchBuilder = new SearchSourceBuilder();searchBuilder.aggregation(agg[0]).aggregation(agg[1]).size(0);// 2\. 得到覆盖率final String indexName = getIndexName(exptId, hour);final Search search = new Search.Builder(searchBuilder.toString()).addIndex(indexName).addType(getType()).build();final SearchResult result = jestClient.execute(search);if(result.getResponseCode() != HttpUtils.STATUS_CODE_200){// 请求出错log.warn(result.getErrorMessage());return 0f;}final MetricAggregation aggregations = result.getAggregations();// 3\. 解析结果final long dividend ;if(SampleRatio.ALL == sampleRatio){dividend = aggregations.getValueCountAggregation(Constants.DIVIDEND).getValueCount();}else {dividend = aggregations.getFilterAggregation(Constants.DIVIDEND).getCount();}// 防止出现被除数为0时程序异常if(dividend <= 0){return 0f;}long divisor = aggregations.getFilterAggregation(Constants.DIVISOR).getCount();return divisor / (float)dividend;

聚合

int label = 0;final ExistsQueryBuilder existsQuery = QueryBuilders.existsQuery(fieldName);// 包含指定特征的正样本数量final BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();final List<QueryBuilder> must = boolQuery.must();// 计算样本数量TermQueryBuilder labelQuery = null;if(SampleRatio.POSITIVE == sampleRatio) {// 计算正样本数量label = 1;labelQuery = QueryBuilders.termQuery(Constants.LABEL, label);must.add(labelQuery);}else if(SampleRatio.NEGATIVE == sampleRatio) {// 计算负样本数量labelQuery = QueryBuilders.termQuery(Constants.LABEL, label);must.add(labelQuery);}must.add(existsQuery);final ValueCountAggregationBuilder existsCountAgg = AggregationBuilders.count(sampleRatio.getField());existsCountAgg.field(fieldName);final FilterAggregationBuilder filterAgg = AggregationBuilders.filter(aggName, boolQuery);filterAgg.subAggregation(existsCountAgg);return filterAgg;
上线效果

上线后表现完全满足预期,平均请求耗时在3秒左右,用户体验良好。感谢各位小伙伴的辛苦付出~~

下图是ES中部分索引的信息:

突破性能瓶颈!ElasticSearch百亿级数据检索优化案例

ElasticSearch读写底层原理及性能调优

一文俯瞰Elasticsearch核心原理

文章不错?点个【在看】吧! ????

这篇关于ES实现百亿级数据实时分析实战案例的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1142996

相关文章

SpringBoot整合(ES)ElasticSearch7.8实践

《SpringBoot整合(ES)ElasticSearch7.8实践》本文详细介绍了SpringBoot整合ElasticSearch7.8的教程,涵盖依赖添加、客户端初始化、索引创建与获取、批量插... 目录SpringBoot整合ElasticSearch7.8添加依赖初始化创建SpringBoot项

SpringBoot中六种批量更新Mysql的方式效率对比分析

《SpringBoot中六种批量更新Mysql的方式效率对比分析》文章比较了MySQL大数据量批量更新的多种方法,指出REPLACEINTO和ONDUPLICATEKEY效率最高但存在数据风险,MyB... 目录效率比较测试结构数据库初始化测试数据批量修改方案第一种 for第二种 case when第三种

python生成随机唯一id的几种实现方法

《python生成随机唯一id的几种实现方法》在Python中生成随机唯一ID有多种方法,根据不同的需求场景可以选择最适合的方案,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起学习学习... 目录方法 1:使用 UUID 模块(推荐)方法 2:使用 Secrets 模块(安全敏感场景)方法

解决1093 - You can‘t specify target table报错问题及原因分析

《解决1093-Youcan‘tspecifytargettable报错问题及原因分析》MySQL1093错误因UPDATE/DELETE语句的FROM子句直接引用目标表或嵌套子查询导致,... 目录报js错原因分析具体原因解决办法方法一:使用临时表方法二:使用JOIN方法三:使用EXISTS示例总结报错原

Java docx4j高效处理Word文档的实战指南

《Javadocx4j高效处理Word文档的实战指南》对于需要在Java应用程序中生成、修改或处理Word文档的开发者来说,docx4j是一个强大而专业的选择,下面我们就来看看docx4j的具体使用... 目录引言一、环境准备与基础配置1.1 Maven依赖配置1.2 初始化测试类二、增强版文档操作示例2.

MyBatis-Plus通用中等、大量数据分批查询和处理方法

《MyBatis-Plus通用中等、大量数据分批查询和处理方法》文章介绍MyBatis-Plus分页查询处理,通过函数式接口与Lambda表达式实现通用逻辑,方法抽象但功能强大,建议扩展分批处理及流式... 目录函数式接口获取分页数据接口数据处理接口通用逻辑工具类使用方法简单查询自定义查询方法总结函数式接口

MySql基本查询之表的增删查改+聚合函数案例详解

《MySql基本查询之表的增删查改+聚合函数案例详解》本文详解SQL的CURD操作INSERT用于数据插入(单行/多行及冲突处理),SELECT实现数据检索(列选择、条件过滤、排序分页),UPDATE... 目录一、Create1.1 单行数据 + 全列插入1.2 多行数据 + 指定列插入1.3 插入否则更

Spring StateMachine实现状态机使用示例详解

《SpringStateMachine实现状态机使用示例详解》本文介绍SpringStateMachine实现状态机的步骤,包括依赖导入、枚举定义、状态转移规则配置、上下文管理及服务调用示例,重点解... 目录什么是状态机使用示例什么是状态机状态机是计算机科学中的​​核心建模工具​​,用于描述对象在其生命

Spring Boot 结合 WxJava 实现文章上传微信公众号草稿箱与群发

《SpringBoot结合WxJava实现文章上传微信公众号草稿箱与群发》本文将详细介绍如何使用SpringBoot框架结合WxJava开发工具包,实现文章上传到微信公众号草稿箱以及群发功能,... 目录一、项目环境准备1.1 开发环境1.2 微信公众号准备二、Spring Boot 项目搭建2.1 创建

IntelliJ IDEA2025创建SpringBoot项目的实现步骤

《IntelliJIDEA2025创建SpringBoot项目的实现步骤》本文主要介绍了IntelliJIDEA2025创建SpringBoot项目的实现步骤,文中通过示例代码介绍的非常详细,对大家... 目录一、创建 Spring Boot 项目1. 新建项目2. 基础配置3. 选择依赖4. 生成项目5.