大数据之LibrA数据库系统告警处理(ALM-12012 NTP服务异常)

2023-11-03 17:04

本文主要是介绍大数据之LibrA数据库系统告警处理(ALM-12012 NTP服务异常),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

告警解释

当节点NTP服务无法与主OMS节点NTP服务正常同步时间时产生该告警。

当节点NTP服务与主OMS节点NTP服务正常同步时间时恢复该告警。

告警属性

告警ID

告警级别

可自动清除

12012

严重

告警参数

参数名称

参数含义

ServiceName

产生告警的服务名称。

RoleName

产生告警的角色名称。

HostName

产生告警的主机名。

对系统的影响

该节点的时间与集群其它节点的时间不同步,可能会导致该节点上的某些FusionInsight应用无法正常运行。

可能原因
  • 该节点的NTP服务无法正常启动。
  • 该节点与主OMS节点NTP服务不能正常同步时间。
  • 该节点NTP认证的key值与主OMS节点NTP服务的key值不一致。
  • 该节点与主OMS节点NTP服务时间偏差太大。
处理步骤

检查该节点的NTP服务是否正常启动。

  1. 检查ntpd进程是否运行在告警节点上。使用root用户登录告警节点,执行命令:ps -ef | grep ntpd | grep -v grep,检查命令是否输出ntpd进程的信息。

    • 是,执行步骤 4。
    • 否,执行步骤 2。

  2. 执行service ntp start(RedHat系统执行service ntpd start)启动NTP服务。
  3. 10分钟后,检查该告警是否恢复。

    • 是,处理完毕。
    • 否,执行步骤 4。

检查该节点与主OMS节点NTP服务是否正常同步时间。

  1. 查看NTP告警的“附加信息”是否描述“与主OMS节点NTP服务无法同步时间”(“Can not synchronize time with active OMS server”)。

    • 是,执行步骤 5。
    • 否,执行步骤 14。

  2. 排查与主OMS节点NTP服务的同步是否有问题。

    使用root用户登录告警节点,执行ntpq -np命令。

    如果显示结果的主OMS节点NTP服务IP地址前有“*”号,表示同步正常,如下:

    remote refid st t when poll reach delay offset jitter 
    ============================================================================== 
    *10.10.10.162 .LOCL. 1 u 1 16 377 0.270 -1.562 0.014

    如果显示结果的主OMS节点NTP服务IP前无“*”号,且“refid”项内容为“.INIT.”,表示同步不正常。

    remote refid st t when poll reach delay offset jitter 
    ============================================================================== 
    10.10.10.162 .INIT. 1 u 1 16 377 0.270 -1.562 0.014
    • 是,执行步骤 6。
    • 否,执行步骤 17。

  3. NTP不能正常同步,通常与系统防火墙有关。如果能关闭防火墙,建议尝试关闭防火墙;如果不能关闭防火墙,请检查防火墙配置策略,确保UDP 123端口未禁用(具体遵循各系统下防火墙配置策略)。
  4. 处理防火墙后等待10分钟,检查该告警是否恢复。

    • 是,处理完毕。
    • 否,执行步骤 8。

  1. 使用root用户登录主OMS节点,执行下列命令,查看key值索引号为“1M”的认证码。

    SUSE系统执行:cat /opt/huawei/Bigdata/om-server/OMSV100R001C00x8664/workspace/conf/ntp.keys

    RedHat系统执行:cat /opt/huawei/Bigdata/om-server/OMSV100R001C00x8664/workspace/conf/ntpkeys

  2. 执行下列命令,查看key值是否与步骤 8的查询值相同。

    SUSE系统执行:diff /opt/huawei/Bigdata/om-server/OMSV100R001C00x8664/workspace/conf/ntp.keys /etc/ntp.keys

    RedHat系统执行:diff /opt/huawei/Bigdata/om-server/OMSV100R001C00x8664/workspace/conf/ntpkeys /etc/ntp/ntpkeys

    • 是,执行步骤 10。
    • 否,执行步骤 17。

  3. 执行cat ${BIGDATA_HOME}/om-server/om/packaged-distributables/ntpKeyFile,查看key值是否与步骤 8的查询值相同。(请与步骤 8查询值的认证秘钥索引为“1M”的key值进行对比)。

    • 是,执行步骤 17。
    • 否,执行步骤 11。

  4. 使用root用户登录故障节点,SUSE系统执行cat /etc/ntp.keys(RedHat系统执行cat /etc/ntp/ntpkeys),查看key值是否与步骤 10的查询值相同(请使用查询出的认证秘钥索引为“1M”的key值进行对比)。

    • 是,执行步骤 17。
    • 否,执行步骤 12。

  5. 使用root用户或omm用户执行以下命令,修改主OMS节点ntp的key值(RedHat系统请将ntp.keys改为ntpkeys)。

    cd ${BIGDATA_HOME}/om-server/OMSV100R001C00x8664/workspace/conf

    sed -i "`cat ntp.keys | grep -n '1 M'|awk -F ':' '{print $1}'`d" ntp.keys

    echo "1 M `cat ${BIGDATA_HOME}/om-server/om/packaged-distributables/ntpKeyFile`" >>ntp.keys

    查看“ntp.keys”中认证秘钥索引字段为1M的key值是否和ntpKeyFile的值相同

    • 是,执行步骤 13。
    • 否,请尝试手动将ntp.keys中认证秘钥索引字段为1M的key值修改为ntpKeyFile的key值。

  6. 5分钟后,使用root用户执行以下命令,查看系统配置文件是否已经同步。

    RedHat系统执行:diff /etc/ntp/ntpkeys ${BIGDATA_HOME}/om-server/OMSV100R001C00x8664/workspace/conf/ntpkeys

    SUSE系统执行:diff /etc/ntp.keys ${BIGDATA_HOME}/om-server/OMSV100R001C00x8664/workspace/conf/ntp.keys

    执行命令无返回结果即为已经同步,同步成功后,执行命令service ntp restart,重启主OMS节点ntp服务,15分钟后查看告警是否消除。

    • 是,处理完毕。
    • 否,执行步骤 17。

检查该节点与主OMS节点NTP服务时间偏差是否太大。

  1. NTP告警的“附加信息”是否描述“时间偏差太大”(time offset)。

    • 是,执行步骤 15。
    • 否,执行步骤 17。

  2. 在“主机管理”页面,勾选告警节点的主机,选择“更多操作 > 停止所有角色”停止告警节点的所有服务。

    如果告警节点时间比主OMS节点NTP服务时间慢,校正告警节点的系统时间。校正告警节点的系统时间后,选择“更多操作 > 启动所有角色”启动告警节点的服务。

    如果告警节点时间比主OMS节点NTP服务时间快,等待相应时间差,校正告警节点的系统时间。校正完成后,选择“更多操作 > 启动所有角色”启动告警节点的服务。

    说明:

    如果不做相应等待,可能造成数据丢失风险。

  3. 10分钟后,检查该告警是否恢复。

    • 是,处理完毕。
    • 否,执行步骤 17。

收集故障信息。

  1. 在FusionInsight Manager界面,单击“系统设置 > 日志下载”。
  2. 在“服务”下拉框中勾选“NodeAgent”、“OmmServer”,设置“主机”为告警所在节点和主OMS节点,单击“确定”。
  3. 设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后30分钟,单击“下载”。

这篇关于大数据之LibrA数据库系统告警处理(ALM-12012 NTP服务异常)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/339634

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

无人叉车3d激光slam多房间建图定位异常处理方案-墙体画线地图切分方案

墙体画线地图切分方案 针对问题:墙体两侧特征混淆误匹配,导致建图和定位偏差,表现为过门跳变、外月台走歪等 ·解决思路:预期的根治方案IGICP需要较长时间完成上线,先使用切分地图的工程化方案,即墙体两侧切分为不同地图,在某一侧只使用该侧地图进行定位 方案思路 切分原理:切分地图基于关键帧位置,而非点云。 理论基础:光照是直线的,一帧点云必定只能照射到墙的一侧,无法同时照到两侧实践考虑:关

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

【区块链 + 人才服务】可信教育区块链治理系统 | FISCO BCOS应用案例

伴随着区块链技术的不断完善,其在教育信息化中的应用也在持续发展。利用区块链数据共识、不可篡改的特性, 将与教育相关的数据要素在区块链上进行存证确权,在确保数据可信的前提下,促进教育的公平、透明、开放,为教育教学质量提升赋能,实现教育数据的安全共享、高等教育体系的智慧治理。 可信教育区块链治理系统的顶层治理架构由教育部、高校、企业、学生等多方角色共同参与建设、维护,支撑教育资源共享、教学质量评估、

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X