数据治理之考评指标类

2023-11-23 01:44
文章标签 数据 指标 治理 考评

本文主要是介绍数据治理之考评指标类,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

正则表达式

  1. [] 表述一个字符应该是什么样子
    • [abc] 表示一个字符可以是a\b\c
    • [a-z] 表示所有小写
    • [a-zA-Z]所有大小写
    • [ a-zA-Z0-9_ ] 所有大小写字母及数字和下划线 -> \w
    • [0-9] \d
    • \s 空格
    • . 表示任意字符
  2. {} 表示有多少个这样的字符
    • [a-z]{1,10}最少有一个,最多有10个
    • [a-z]{,10}最多10个
    • [a-z]{2,}至少2个
    • {1,} -> + 至少一个可以用+代替
    • {0,1} -> ? 最多一个
    • {,} -> * 多少个都行,可以没有
    • .* 表示任意字符有任意多个
  3. ()修饰可以是一个什么样的词组
    • (zhang3 | li4)可以是zhang3或者li4
  4. ^ 表示以什么开头
    • [^] 表示非
    • $ 表示以什么结尾

在这里插入图片描述

代码使用

public static void main(String[] args){String email = "windyzj@qq.com";Pattern emailPattern = Pattern.compile("正则");Matcher matcher = emailPttern.matcher(email);if(matcher.matches()){sout("符合规范");}else{sout("不符合规范 ");}
}

时间复杂度

O(1) : 根据key从map中查询,从set中查询某个值是否存在

集合转换

可以使用.stream().

指标类之读写访问权限检查

  1. 文件目录是否超过建议权限
  2. 指标code: FILE_ACCESS_PERMISION
  3. 领域:SECURITY
  4. 建议权限:
    • 目录权限:755
    • 文件权限:644
  5. 处理步骤:
    • 提取相关元数据
    • 准备递归遍历
      • 递归工具 FileSystem
      • 递归起点 一级子目录
      • 递归的容器 收集所有超过权限的文件、目录,位置
      • 判断权限的参数 perssion
    • 递归执行
      • 循环起点目录
      • 如果是中间节点(目录):采集处理,张开下一层次,递归回调自己
      • 如果是叶子节点(文件):采集处理,权限检查
    • 根据结果容器进行评价:如果容器有内容,差评,填写问题位置

考评领域划分

  1. calc 计算
  2. quality安全
  3. spec 规范
  4. storage存储

mysql相关命令

  1. 启动sudo systemctl restart mysqld
  2. 配置文件 /etc/my.cnf
  3. 日志: /var/lib/mysqld.log
  4. 如果执行启动脚本出错:sudo journalctl -xe

表产出数据监控

  1. 先判断为日分区表
  2. 当日产出的数据量,超过前x天产出量{upper_limit}%, 或低于{lower_limit}%
  3. 当日分区的数据量 / 前n天平均值
  4. 表目录/ dt , 递归累加计算

Dolphinscheduler面向数据治理

  1. 不要每层一个节点,而是每个表一个节点
  2. ds中的sql节点实际上是使用jdbc方式的方式执行SQL,需要使用hiveserver2,但是hiveserver2在大数据量时非常不稳定
  3. 由于经过hiveserver2,会丢失掉yarn_id
  4. 而做数据治理时,yarn_id是用来找到对应任务日志的唯一标识
  5. ds.3 bug比较多,功能也较多,3.x版本不采集yarn_id,需要改源码重新编译
  6. 如何根据表名查询该表对应的流程节点,把节点名命名为库名+表名

要从DS中获取哪些东西

  1. 任务定义:获得SQL,总共一份。在表t_ds_task_definition
  2. 任务运行状况(每天一份):在表 t_ds_task_instance
    • 是否运行成功 state 成功是7,失败是6
    • 耗时: end_time - submit_time
    • yarn_id 用于提取日志 app_link

这篇关于数据治理之考评指标类的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/414428

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

【区块链 + 人才服务】可信教育区块链治理系统 | FISCO BCOS应用案例

伴随着区块链技术的不断完善,其在教育信息化中的应用也在持续发展。利用区块链数据共识、不可篡改的特性, 将与教育相关的数据要素在区块链上进行存证确权,在确保数据可信的前提下,促进教育的公平、透明、开放,为教育教学质量提升赋能,实现教育数据的安全共享、高等教育体系的智慧治理。 可信教育区块链治理系统的顶层治理架构由教育部、高校、企业、学生等多方角色共同参与建设、维护,支撑教育资源共享、教学质量评估、

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav