网易严选数据质量实践

2023-10-09 00:18

本文主要是介绍网易严选数据质量实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


导读:

本篇是首届网易数据治理大赛获奖作品分享,来自网易严选大数据团队,主要针对日常数据质量的一些问题进行了总结,并将相关的技巧分享给大家。

大家好,我是来自网易严选大数据团队的牧天,首先感谢网易有数的同事们组织了此次数据治理大赛,我参赛的题目是《网易严选数据质量实践》。我将从三个方面给大家介绍,第一部分,数据质量问题的危害和发生原因;第二部分,如何保障数据质量;第三部分,网易严选数据质量实践。

1

数据质量问题的危害和发生原因

1. 数据质量问题的危害

数据质量问题的危害通常体现在四个方面:数据的完整性、数据延迟、数据准确性、数据一致性。

数据完整性  犹记得2018年杭研和考拉一起共建数据中台,为了更好的了解业务,我驻扎到考拉现场。刚去几天,当时考拉的业务投诉数仓、说流量数据不正确,排查了半天,发现是流量数据丢失,原因是几台机器数据没有收集,最终定为P2事故。

数据延迟  在考拉呆了几个星期,有一天分析师和业务在群里吼,怎么数据还没有产出?都十点多了。原因是一个关键任务失败,报警电话给对应人没有叫起来,导致了整个数据延迟4小时+,定级P3事故。

数据准确性  2020年下半年严选由于一个任务节点依赖有问题,没有依赖到数据,导致了用户标签一堆老客当成了新客,造成了30w+的资损P1事故。

数据一致性  2020年 严选新客运营同学提出用户当前红包数据不准确,用户红包用掉了,怎么APP上还有浮层提醒,定位发现flink任务里面的一个task写ES的时候假死,其他task正常。

数据质量会导致资损、业务分析滞后、错误、算法模型不准确、数据质疑 等等问题,我们可以分析下具体的发生原因。

2. 数据质量问题发生的原因

原因可以总结为两个方面:统不稳定、程序BUG

系统不稳定

  • 埋点服务器配置更新或挂掉导致日志收集问题;

  •  日志和数据库数据同步问题;

  •  离线计算平台任务突然变慢卡死或失败问题;

  •  实时计算平台任务Task卡死;

  •  KAFKA压力大数据延迟。

程序bug

  • 后端程序有Bug原始数据有问题;

  • 数据开发程序有Bug;

  • 实时任务和离线任务逻辑不一致;

  • 上游数据变更未通知下游。

知道了发生数据质量问题的原因,接下来我们怎么防范呢?

2

如何保障数据质量

1. 采用规范的开发模式(解决后端和数据开发的Bug)

利用网易有数的中台产品:数据测试中心,做到开发->测试->上线监控流程

第一次开发的时候,探查数据形态(如枚举数量),进行唯一性检测,和业务确认数据量;

后期修改任务(业务改造),通过主键,进行改造前后数据对比;

针对核心资产任务,进行code view机制,审批后提交上线;

上线后增加唯一性监控、行数监控、枚举值监控、指标值监控等相应监控。

2. 通过基线的机制保障数据及时性

利用网易有数的中台产品:任务运维中心,设置2点半基线->4点半基线->7点半基线,保证核心维表和dwd表、核心dws相关dwd表、核心dm层表及时产出

采用预警的方式提前白天处理,减少夜晚报警(如流量当天数据监控);

采用值班机制、多次呼叫并升级,防止电话打不醒、任务延迟事故问题。

3. 数据质量监控

利用网易有数中台产品:数据质量中心,进行完整性、准确性、一致性监控

【完整性】针对当天日志的IP地址数目进行监控,如果发现IP减少进行白天报警规则,(避免第二天T+1任务出问题);

【准确性】核心dwd和dim表进行行数、波动性、主键、枚举值监控保证准确性;

【准确性】核心dws指标、枚举 进行监控;

【一致性】针对实时和离线数据进行对比监控(Lambda架构)  针对不同存储引擎数据对比监控(如Mysql、ES、Kudu)。

保障数据质量的辅助产品已经到位了,我们是怎么实践的呢?

3

数据质量实践

1. 开发篇-超会改造

背景:

由于之前后端表设计不合理、导致新业务不能支持、业务后端需要改造。

改造过程:

业务10+表进行变更、甚至有一张表拆分成4+表的场景、业务含义、枚举大规模变更;

我们进行了20+数据模型对比,如果有问题反馈给业务后端改造

98992daa14e2a5f7c6524a3f773f16fb.png

改造结果:

帮助主站后端找到8+问题,让其进行修复;保证了改造前后数仓数据一致性,最终成功上线切换。

7e36b14439886ca12b96f277131ab476.png

2. 保障及时性

我们进行了轮班值班机制。每人3天,一个主值班人员、一个被值班人员。主要设立3条基线 2点半、4点半、7点半。

fda8fe212a50484eb30db30ad6d2a45a.png

在基线我们有两种报警:一种预警、一种破线。

挂在基线里面的任务或者链路里面的任务失败,直接电话报警;

通过近14天排除掉最长运行时间和最短的运行时间进行链路计算时间,如果有可能破线,会进行基线破线电话报警。

通过预警我们不会进行电话报警,会采用短信、pop、邮件报警,如2点半基线在两点的时候没完成(缓冲半个小时),这样白天我们进行任务优化。如果不长期优化,就会恶性循环,在破线的边缘徘徊。

如果值班人电话打不通没处理,会给被值班人员进行呼叫。

PS: 值班很痛苦、需要大家共同保障。

3. 保障完整性、准确性、一致性

日志监控

对于正常日志丢失,我们进行了IP数量的校验。

63473bb036aea8cba55c1a75cbdda02f.png

针对当天流量日志进行IP数量的监控,如大于多少台,以及波动性监控;当机器数量减少的时候触发报警。这里的报警要注意的点 是当天的流量数据,非T+1(如果半夜叫起处理的话基本也延迟了),也不存在阻断下游的概念。

如果有的日志有对应DB数据,此时还可以加上日志和db数据的对比较监控。

业务上游变更

业务上游变更可能会涉及到字段名称、类型,这种我们主要采用审批和变更提醒的方式进行防护,还有一种是业务的逻辑的变更。

case when a.topic = "getCartCoupon" then 1
when a.topic =  "getCoupon" and a.sub_welfare_type not in (6) then 2 
when a.topic = "pushSms" then 3
when a.topic = "getCoupon" and a.sub_welfare_type in (6) then 6
when a.topic = "openCard" then 6
else 0 end as welfare_type,

数仓针对业务进行定义了枚举,当业务有新的类型产出的时候,我们可能识别不出来,那怎么能快速发现呢?答案如下:

4aca897e9cf21d29fe25c4fae38a469a.png

重要资损模型

有时候数仓团队会出dm模型用来进行发放福利,这个如果稍有差错,就可能带来大的资损事故(钱的多少决定了事故的等级),在这块我们会进行基础的监控和发放钱的监控。

877cb5c6c7bda92e5933123e5127ceee.png

如果当天需要发放超过10w就会阻断。

d03a5c7a6c2e523d54a1aa04aa1cb646.png

标签相关监控

在用户标签这块我们会有实时+离线的dm层明细数据、汇总数据,为了保障标签不带来资损,这块我们也进行了全方位的质量监控(这块类似于dwd 和dws 的数据监控)。

比如在明细数据这块我们主要进行了唯一性和行数以及波动性的检测。

65e9777680d8b56297a01a0ee1eb346a.png

汇总数据这块我们除了基础唯一性、行数、波动性的检测外加了指标监控。

b08cb536df7fd50d11ac63456595f5f2.png

在实时和离线这块我们进行了对比监控。

90da7d5ee09c1f378a1e220062d33745.png

对于标签,除了存储hive kudu外还会存储到ES和Hbase里面,所以我们还加了数据对比监控。

d853e86efc5dfcae05c4964418c28a9c.png

事实证明,只有完善的监控才能保证标签的整体质量。

4

总结

最后总结下在数据质量实践过程中沉淀的方法。第一个沉淀了实时标签开发流程规范:

aa04b64c05ebddab32aaa32d38f13352.png

第二个是沉淀了质量监控的方法:

857dd05f0dfd6acd4a9d796edee73f5a.png

这篇关于网易严选数据质量实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/168964

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识