ES实现百亿级数据实时分析实战案例

2024-09-06 20:08

本文主要是介绍ES实现百亿级数据实时分析实战案例,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

点击上方蓝色字体,选择“设为星标

回复”资源“获取更多资源

背景

我们小组前段时间接到一个需求,希望能够按照小时为单位,看到每个实验中各种特征(单个或组合)的覆盖率、正样本占比、负样本占比。我简单解释一下这三种指标的定义:

  • 覆盖率:所有样本中出现某一特征的样本的比例

  • 正样本占比:所有出现该特征的样本中,正样本的比例

  • 负样本占比:所有出现该特征的样本中,负样本的比例

光看这三个指标,大家可能会觉得这个需求很简单,无非就是一个简单的筛选、聚合而已。

如果真的这么简单,我也没必要写这篇文章单独记录了。问题的关键就在于,每小时有将近1亿的数据量,而我们需要保存7天的数据,数据总量预计超过了100亿

技术方案

在了解清楚需求后,我们小组马上对技术方案展开讨论,讨论过程中出现了3种方案:

  • 第一种:用Spark流式计算,计算每一种可能单个或组合特征的相关指标

  • 第二种:收到客户端请求后,遍历HDFS中相关数据,进行离线计算

  • 第三种:将数据按照实验+小时分索引存入ES,收到客户端请求后,实时计算返回

首先,第一种方案直接被diss,原因是一个实验一般会出现几百、上千个特征,而这些特征的组合何止几亿种,全部计算的话,可行性暂且不论,光是对资源的消耗就无法承受。

第二种方案,虽然技术上是可行的,但离线计算所需时间较长,对用户来说,体验并不理想。并且,为了计算目标1%的数据而要遍历所有数据,对资源也存在很大浪费。

第三种方案,将数据按照实验+小时分索引后,可以将每个索引包含的数据量降到1000万以下,再借助ES在查询、聚合方面高效的能力,应该可以实现秒级响应,并且用户体验也会非常好。

技术方案由此确定。

技术架构

1.用Spark从Kafka中接入原始数据,之后对数据进行解析,转换成我们的目标格式

2.将数据按照实验+小时分索引存入ES中

3.接受到用户请求后,将请求按照实验+特征+小时组合,创建多个异步任务,由这些异步任务并行从ES中过滤并聚合相关数据,得到结果

4.将异步任务的结果进行合并,返回给前端进行展示

代码实现

异步任务

// 启动并行任务final Map<String,List<Future<GetCoverageTask.Result>>> futures = Maps.newHashMap();for(String metric : metrics) { // 遍历要计算的指标final SampleRatio sampleRatio = getSampleRatio(metric);for (String exptId : expts) { // 遍历目标实验列表for (String id : features) { // 遍历要分析的特征final String name = getMetricsName(exptId, sampleRatio, id);final List<Future<GetCoverageTask.Result>> resultList = Lists.newArrayList();for (Date hour : coveredHours) { // 将时间按照小时进行拆分final String fieldName = getFieldName(isFect ? Constants.FACET_COLLECT : Constants.FEATURE_COLLECT, id);final GetCoverageTask task = new GetCoverageTask(exptId, fieldName, sampleRatio, hour);// 启动并行任务final Future<GetCoverageTask.Result> future = TaskExecutor.submit(task);resultList.add(future);}futures.put(name, resultList);}}}final QueryRes queryRes = new QueryRes();final Iterator<Map.Entry<String, List<Future<GetCoverageTask.Result>>>> it = futures.entrySet().iterator();while (it.hasNext()){// 省略结果处理流程}

指标计算

// 1\. 对文档进行聚合运行,分别得到基础文档的数量,以及目标文档数量final AggregationBuilder[] agg = getAggregationBuilder(sampleRatio, fieldName);final SearchSourceBuilder searchBuilder = new SearchSourceBuilder();searchBuilder.aggregation(agg[0]).aggregation(agg[1]).size(0);// 2\. 得到覆盖率final String indexName = getIndexName(exptId, hour);final Search search = new Search.Builder(searchBuilder.toString()).addIndex(indexName).addType(getType()).build();final SearchResult result = jestClient.execute(search);if(result.getResponseCode() != HttpUtils.STATUS_CODE_200){// 请求出错log.warn(result.getErrorMessage());return 0f;}final MetricAggregation aggregations = result.getAggregations();// 3\. 解析结果final long dividend ;if(SampleRatio.ALL == sampleRatio){dividend = aggregations.getValueCountAggregation(Constants.DIVIDEND).getValueCount();}else {dividend = aggregations.getFilterAggregation(Constants.DIVIDEND).getCount();}// 防止出现被除数为0时程序异常if(dividend <= 0){return 0f;}long divisor = aggregations.getFilterAggregation(Constants.DIVISOR).getCount();return divisor / (float)dividend;

聚合

int label = 0;final ExistsQueryBuilder existsQuery = QueryBuilders.existsQuery(fieldName);// 包含指定特征的正样本数量final BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();final List<QueryBuilder> must = boolQuery.must();// 计算样本数量TermQueryBuilder labelQuery = null;if(SampleRatio.POSITIVE == sampleRatio) {// 计算正样本数量label = 1;labelQuery = QueryBuilders.termQuery(Constants.LABEL, label);must.add(labelQuery);}else if(SampleRatio.NEGATIVE == sampleRatio) {// 计算负样本数量labelQuery = QueryBuilders.termQuery(Constants.LABEL, label);must.add(labelQuery);}must.add(existsQuery);final ValueCountAggregationBuilder existsCountAgg = AggregationBuilders.count(sampleRatio.getField());existsCountAgg.field(fieldName);final FilterAggregationBuilder filterAgg = AggregationBuilders.filter(aggName, boolQuery);filterAgg.subAggregation(existsCountAgg);return filterAgg;
上线效果

上线后表现完全满足预期,平均请求耗时在3秒左右,用户体验良好。感谢各位小伙伴的辛苦付出~~

下图是ES中部分索引的信息:

突破性能瓶颈!ElasticSearch百亿级数据检索优化案例

ElasticSearch读写底层原理及性能调优

一文俯瞰Elasticsearch核心原理

文章不错?点个【在看】吧! ????

这篇关于ES实现百亿级数据实时分析实战案例的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1142996

相关文章

如何使用Java实现请求deepseek

《如何使用Java实现请求deepseek》这篇文章主要为大家详细介绍了如何使用Java实现请求deepseek功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1.deepseek的api创建2.Java实现请求deepseek2.1 pom文件2.2 json转化文件2.2

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

Springboot中分析SQL性能的两种方式详解

《Springboot中分析SQL性能的两种方式详解》文章介绍了SQL性能分析的两种方式:MyBatis-Plus性能分析插件和p6spy框架,MyBatis-Plus插件配置简单,适用于开发和测试环... 目录SQL性能分析的两种方式:功能介绍实现方式:实现步骤:SQL性能分析的两种方式:功能介绍记录

如何通过Python实现一个消息队列

《如何通过Python实现一个消息队列》这篇文章主要为大家详细介绍了如何通过Python实现一个简单的消息队列,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录如何通过 python 实现消息队列如何把 http 请求放在队列中执行1. 使用 queue.Queue 和 reque

Python如何实现PDF隐私信息检测

《Python如何实现PDF隐私信息检测》随着越来越多的个人信息以电子形式存储和传输,确保这些信息的安全至关重要,本文将介绍如何使用Python检测PDF文件中的隐私信息,需要的可以参考下... 目录项目背景技术栈代码解析功能说明运行结php果在当今,数据隐私保护变得尤为重要。随着越来越多的个人信息以电子形

使用 sql-research-assistant进行 SQL 数据库研究的实战指南(代码实现演示)

《使用sql-research-assistant进行SQL数据库研究的实战指南(代码实现演示)》本文介绍了sql-research-assistant工具,该工具基于LangChain框架,集... 目录技术背景介绍核心原理解析代码实现演示安装和配置项目集成LangSmith 配置(可选)启动服务应用场景

使用Python快速实现链接转word文档

《使用Python快速实现链接转word文档》这篇文章主要为大家详细介绍了如何使用Python快速实现链接转word文档功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 演示代码展示from newspaper import Articlefrom docx import

前端原生js实现拖拽排课效果实例

《前端原生js实现拖拽排课效果实例》:本文主要介绍如何实现一个简单的课程表拖拽功能,通过HTML、CSS和JavaScript的配合,我们实现了课程项的拖拽、放置和显示功能,文中通过实例代码介绍的... 目录1. 效果展示2. 效果分析2.1 关键点2.2 实现方法3. 代码实现3.1 html部分3.2

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动