EventBridge 生态实践:融合 SLS 构建一体化日志服务

2023-10-23 00:10

本文主要是介绍EventBridge 生态实践:融合 SLS 构建一体化日志服务,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

作者: 昶风

引言

阿里云日志服务 SLS 是一款优秀的日志服务产品,提供一站式地数据采集、加工、查询与分析、可视化、告警、消费与投递等服务。对于使用 SLS 的用户业务而言,SLS 上存储的日志信息反映着业务的运行状态,通过适当地流转加工即可创建一定价值。

另一方面,阿里云 EventBridge 作为云上事件枢纽,每天承载着大量事件的流转。云上资源的操作事件、消息队列中的数据、用户业务中的自定义事件等,是否有一站式的配置工具来将这些数据统一收敛到 SLS,进而使用 SLS 强大的加工、分析能力也是一个具有价值的问题。

为了支持上述日志、数据流入流出 SLS 的场景,阿里云 EventBridge 在近期支持了 SLS 能力。用户在 EventBridge 上通过简单地配置,即可实现数据写入 SLS 和将 SLS 中日志路由到不同的 EventBridge 目标端。EventBridge 对 SLS 的支持是全面的,用户既可以在事件总线中使用 SLS,也可以在事件流中使用。本文将从 SLS 在 EventBridge上 的使用以及若干最佳实践场景等方面,为大家介绍如何基于 EventBridge 构建 SLS 相关应用。

基于 EventBridge 使用 SLS

阿里云 SLS

日志服务 SLS [ 1] 是一款云原生观测与分析平台,为 Log、Metric、Trace 等数据提供大规模、低成本、实时的平台化服务,提供数据采集、加工、查询与分析、可视化、告警、消费与投递等功能。

在这里插入图片描述

SLS 在 EventBridge 上的应用

阿里云 EventBridge 提供了事件总线 [ 2] 与事件流 [ 3] 两款不同应用场景的事件路由服务。

事件总线底层拥有事件的持久化能力,可以按照需要将事件经事件规则路由到多个目标。而事件流则更轻量化,对源端产生的事件实时抽取、转换和分析并加载至目标端,无需创建事件总线,端到端转储效率更高,使用更轻便,适用于端到端的流式数据处理场景。SLS 目前对事件总线与事件流均已支持。

针对 SLS 事件源,EventBridge 会构造一个 SLS source connector,其会实时地从 SLS 服务端拉取日志。数据拉取到 EventBridge 后,会进行一定的结构封装,保留用户日志、SLS 系统参数等数据,同时增加 event 所需要的一些系统属性。

在这里插入图片描述

SLS Event 样例可参考如下示例。

data 部分代表用户日志内容,其中以“__”开头和结尾的字段表示日志项的 SLS 系统属性。

{"datacontenttype": "application/json;charset=utf-8","aliyunaccountid": "175********6789","data": {"key1": "value1","key2": "value2","__topic__": "TopicCategory","__source__": "SourceCategory","__client_ip__": "122.231.***.***","__receive_time__": "1663487595","__pack_id__": "59b662b225779628-0"},"subject": "acs:log:cn-qingdao:175********6789:project/demoproject/logstore/logstore-1","aliyunoriginalaccountid": "175********6789","source": "test-SLS","type": "sls:connector","aliyunpublishtime": "2022-09-18T07:53:15.387Z","specversion": "1.0","aliyuneventbusname": "demoBus","id": "demoproject-logstore-1-1-MTY2MzExODM5ODY4NjAxOTQyMw==-0","time": "2022-09-18T07:53:12Z","aliyunregionid": "cn-qingdao","aliyunpublishaddr": "10.50.132.112"
}

针对 SLS 事件目标,EventBridge 使用 logProducer 将 event 整体作为一个字段投递到 SLS,字段 key 名称为“content”。

在这里插入图片描述

使用介绍

  • SLS 事件源

在使用 SLS 作为事件源时(这里包含了事件总线中的事件源和事件流中的事件源),需要提供以下参数:

  • 日志项目(SLS Project)
  • 日志库(SLS LogStore)
  • 起始消费位点
  • 调用角色

在创建 SLS 事件源时,EventBridge 会自动在对应 LogStore 下创建一个以“eventbridge-”开头的消费组,事件源或事件流被删除时,对应消费组资源也会被清理。

日志项目与日志库参数,用户根据已创建的 Project 和 LogStore 去填写即可。

起始消费位点参数指定了新任务启动时的初始消费位点。这里可以选择“最早位点”、“最新位点”与“指定时间”。“最早位点”即从当前 LogStore 中最早的日志开始消费,会导致大量历史日志被读取,建议结合业务谨慎选择;“最新位点”则表示消费对应 EventBridge 任务启动后的日志;“指定时间”需要用户填写时间戳(以秒为单位),消费从此时刻开始的日志。

针对调用角色,其实是允许 EventBridge 以这个角色的身份去调用读取用户 SLS 日志。用户需要创建一个自定义角色,并将其授信给事件总线 EventBridge。角色的权限方面则可以按照需要去进行设置,在权限最小的原则基础上,权限策略提供的角色应保证事件总线 EventBridge 可以读取对应 LogStore 日志与消费组的增删操作,至少赋予角色 LogStore 消费权限与消费组的增删操作。参考示例:

{"Version": "1","Statement": [{"Action": ["log:ListShards","log:GetCursorOrData","log:GetConsumerGroupCheckPoint","log:UpdateConsumerGroup","log:ConsumerGroupHeartBeat","log:ConsumerGroupUpdateCheckPoint","log:ListConsumerGroup","log:CreateConsumerGroup","log:DeleteConsumerGroup"],"Resource": ["acs:log:*:*:project/<指定的project名称>/logstore/<指定的Logstore名称>","acs:log:*:*:project/<指定的project名称>/logstore/<指定的Logstore名称>/*"],"Effect": "Allow"}]
}
  • SLS 事件目标

在使用 SLS 作为事件目标时(这里包含了事件总线中的事件目标和事件流中的事件目标),需要提供以下参数:

  • 日志项目(SLS Project)
  • 日志库(SLS LogStore)
  • Topic
  • 调用角色

日志项目、日志库参数含义同 SLS 事件源。Topic 即 SLS 日志主题,用户可以根据需要进行设置,非必填内容。

在创建 SLS 事件目标时,确保使用的调用角色有写入给定日志库权限即可。参考示例:

{"Version":"1","Statement":[{"Effect":"Allow","Action":["log:PostLogStoreLogs"],"Resource":["acs:log:*:*:project/<指定的Project名称>/logstore/<指定的Logstore名称>"]}]
}

使用示例

SLS 事件源和事件目标,其事件总线与事件流的参数配置相同,这里示例了如何创建 SLS 事件源和事件目标的 EventBridge 事件流。

  • 前期准备
  1. 开通 EventBridge 服务;

  2. 开通 SLS 服务并创建 Project 与 Store。

  • 创建 SLS 事件源
  1. 登陆 EventBridge 控制台,点击左侧导航栏,选择“事件流”,在事件流列表页点击“创建事件流”;

  2. “基本信息”中“事件流名称”与“描述”按照需要填写即可;

  3. 在创建事件流,选择事件提供方时,下拉框选择“日志服务 SLS”;

  4. 在“日志服务 SLS”一栏中选配置 SLS Project、LogStore、起始消费位点与角色配置。

在这里插入图片描述

  • 创建 SLS 事件目标
  1. 在创建事件流的事件目标时,服务类型选择“日志服务”;

  2. 配置 SLS Project、LogStore、日志主题、日志内容、角色配置等参数。

在这里插入图片描述

  1. 保存启动即可创建事件流。

在这里插入图片描述

最佳实践示例

异步架构完备性校验

在使用消息队列搭建异步应用架构时,会偶发遇到消息丢失的情况,这种情况下的问题排查通常较为麻烦,需要确定问题到底是出在发送端、消费端还是消息队列上,这种场景可以使用 SLS + EventBridge 来进行相关预警和现场保留。

  1. 业务 1 发送消息到消息队列,业务 2 异步消费 MQ 中的消息,实现架构解耦;

  2. 消息发送端和消费端,在完成消费发送、消费的相关操作后,均将操作日志打印出来,并采集到 SLS 上,日志中可以包含消息 ID 等字段以确保可溯源;

  3. 配置 EventBridge 事件流,事件提供方为 SLS,事件接收方为函数计算 FC;

  4. FC 中的服务读取 SLS 中日志内容,若发现针对某条消息,若仅有发送日志无消费日志,则说明可能存在漏消息的可能性,需要相关人员及时介入排查。

在这里插入图片描述

异常业务异步处理

部分消息队列如 RocketMQ 有死信队列能力,当用户消费失败达到一定次数时,消息会被投递到死信队列。用户也可以使用 SLS + EventBridge 构建业务死信队列,以完成对异常情况的处理。

例如下图是一个电商平台的订单处理系统,当订单处理成功时,相关信息会被写入 DB 或者进行后续操作。但如果订单处理异常用户又不想要阻塞现有订单处理流程,则可以将处理异常订单的流程异步处理。

  1. 用户下单/付款,订单系统进行业务处理,处理成功则将数据变更写入 DB;

  2. 订单处理异常,记录相关信息日志;

  3. 搭建 EventBridge 事件规则。事件源为 SLS,事件目标为函数计算 FC;

  4. 当有异常业务日志产生时,日志内容被 SLS 事件源拉取,随后投递到 FC,由专门的服务来处理异常订单。当然,在架构设计时也可以将异常订单信息直接投递到函数计算,但对于大部分业务系统而言,当有异常出现时通常都会进行相关日志的打印,即异常日志大概率是存在的,这个时候使用 SLS + EventBridge 则无需再使用函数计算的发送客户端,仅按需打印日志即可,对业务的侵入性更小。

在这里插入图片描述

消息备份

目前阿里云上的消息队列产品种类丰富,用户在使用消息队列实现业务解耦的同时,也会产生对消息内容进行加工分析的需求。SLS 拥有强大的数据加工能力,使用 EventBridge 将消息路由到 SLS,在实现消息备份的同时也可以利用 SLS 的分析加工能力来提升业务的可观测性。

  1. 搭建 EventBridge 事件流。事件提供方为各种云上消息队列,事件目标方为日志服务 SLS;

  2. 使用 SLS 的能力完成消息的加工、查询、分析与可视化。

在这里插入图片描述

自建 SQL 审计

目前 EventBridge 已经支持了 DTS 作为事件源的能力,使用 EventBridge 可以轻松实现构建自定义 SQL 审计的需求。

  1. 用户新建 DTS 数据订阅任务,捕获数据库变更;

  2. 搭建 EventBridge 事件流,事件提供方为 DTS,事件接收方为日志服务 SLS;

  3. 用户需要对 SQL 进行审计时,通过查询 SLS 进行。

在这里插入图片描述

相关链接

[1] 日志服务SLS

https://www.aliyun.com/product/sls

[2] 事件总线

https://help.aliyun.com/document_detail/163897.html

[3] 事件流

https://help.aliyun.com/document_detail/329940.html

感兴趣的小伙伴们可以扫描下方二维码加入钉钉群讨论(群号:44552972)

在这里插入图片描述

点击此处,进入 EventBridge 官网了解更多信息~

这篇关于EventBridge 生态实践:融合 SLS 构建一体化日志服务的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/264465

相关文章

Nginx实现高并发的项目实践

《Nginx实现高并发的项目实践》本文主要介绍了Nginx实现高并发的项目实践,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录使用最新稳定版本的Nginx合理配置工作进程(workers)配置工作进程连接数(worker_co

Nginx配置系统服务&设置环境变量方式

《Nginx配置系统服务&设置环境变量方式》本文介绍了如何将Nginx配置为系统服务并设置环境变量,以便更方便地对Nginx进行操作,通过配置系统服务,可以使用系统命令来启动、停止或重新加载Nginx... 目录1.Nginx操作问题2.配置系统服android务3.设置环境变量总结1.Nginx操作问题

grom设置全局日志实现执行并打印sql语句

《grom设置全局日志实现执行并打印sql语句》本文主要介绍了grom设置全局日志实现执行并打印sql语句,包括设置日志级别、实现自定义Logger接口以及如何使用GORM的默认logger,通过这些... 目录gorm中的自定义日志gorm中日志的其他操作日志级别Debug自定义 Loggergorm中的

Spring Retry 实现乐观锁重试实践记录

《SpringRetry实现乐观锁重试实践记录》本文介绍了在秒杀商品SKU表中使用乐观锁和MybatisPlus配置乐观锁的方法,并分析了测试环境和生产环境的隔离级别对乐观锁的影响,通过简单验证,... 目录一、场景分析 二、简单验证 2.1、可重复读 2.2、读已提交 三、最佳实践 3.1、配置重试模板

Python与DeepSeek的深度融合实战

《Python与DeepSeek的深度融合实战》Python作为最受欢迎的编程语言之一,以其简洁易读的语法、丰富的库和广泛的应用场景,成为了无数开发者的首选,而DeepSeek,作为人工智能领域的新星... 目录一、python与DeepSeek的结合优势二、模型训练1. 数据准备2. 模型架构与参数设置3

mac安装nvm(node.js)多版本管理实践步骤

《mac安装nvm(node.js)多版本管理实践步骤》:本文主要介绍mac安装nvm(node.js)多版本管理的相关资料,NVM是一个用于管理多个Node.js版本的命令行工具,它允许开发者在... 目录NVM功能简介MAC安装实践一、下载nvm二、安装nvm三、安装node.js总结NVM功能简介N

SpringBoot项目注入 traceId 追踪整个请求的日志链路(过程详解)

《SpringBoot项目注入traceId追踪整个请求的日志链路(过程详解)》本文介绍了如何在单体SpringBoot项目中通过手动实现过滤器或拦截器来注入traceId,以追踪整个请求的日志链... SpringBoot项目注入 traceId 来追踪整个请求的日志链路,有了 traceId, 我们在排

Spring Boot 3 整合 Spring Cloud Gateway实践过程

《SpringBoot3整合SpringCloudGateway实践过程》本文介绍了如何使用SpringCloudAlibaba2023.0.0.0版本构建一个微服务网关,包括统一路由、限... 目录引子为什么需要微服务网关实践1.统一路由2.限流防刷3.登录鉴权小结引子当前微服务架构已成为中大型系统的标

springboot的调度服务与异步服务使用详解

《springboot的调度服务与异步服务使用详解》本文主要介绍了Java的ScheduledExecutorService接口和SpringBoot中如何使用调度线程池,包括核心参数、创建方式、自定... 目录1.调度服务1.1.JDK之ScheduledExecutorService1.2.spring

Java调用DeepSeek API的最佳实践及详细代码示例

《Java调用DeepSeekAPI的最佳实践及详细代码示例》:本文主要介绍如何使用Java调用DeepSeekAPI,包括获取API密钥、添加HTTP客户端依赖、创建HTTP请求、处理响应、... 目录1. 获取API密钥2. 添加HTTP客户端依赖3. 创建HTTP请求4. 处理响应5. 错误处理6.