26 | 备库为什么会延迟好几个小时?

2024-04-20 21:32

本文主要是介绍26 | 备库为什么会延迟好几个小时?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • MySQL45讲
    • 实践篇
      • 26 | 备库为什么会延迟好几个小时?
        • MySQL 5.5 版本的并行复制策略
        • MySQL 5.6 版本的并行复制策略
        • MariaDB 的并行复制策略
        • MySQL 5.7 的并行复制策略
        • MySQL 5.7.22 的并行复制策略


MySQL45讲

实践篇

26 | 备库为什么会延迟好几个小时?

在这里插入图片描述

日志在备库上的执行,就是图中备库上 sql_thread 更新数据 (DATA) 的逻辑。如果是用单线程的话,就会导致备库应用日志不够快,造成主备延迟。

在官方的 5.6 版本之前,MySQL 只支持单线程复制,由此在主库并发高、TPS 高时就会出现严重的主备延迟问题。

多线程复制机制,是要把图 1 中只有一个线程的 sql_thread,拆成多个线程。

在这里插入图片描述

上图中,coordinator 就是原来的 sql_thread, 它不再直接更新数据,只负责读取中转日志和分发事务。真正更新日志的,变成了 worker 线程。而 work 线程的个数,是由参数 slave_parallel_workers 决定(设置为 8~16 之间最好(32 核物理机的情况))。

疑问:事务能不能按照轮询的方式分发给各个 worker,也就是第一个事务分给 worker_1,第二个事务发给 worker_2 呢?

不能。因为,事务被分发给 worker 以后,不同的 worker 独立执行。但是,由于 CPU 的调度策略,很可能第二个事务最终比第一个事务先执行。而如果这时候刚好这两个事务更新的是同一行,也就意味着,同一行上的两个事务,在主库和备库上的执行顺序相反,会导致主备不一致的问题。

疑问:同一个事务的多个更新语句,能不能分给不同的 worker 来执行?

不能。举个例子,一个事务更新了表 t1 和表 t2 中的各一行,如果这两条更新语句被分到不同 worker ,虽然最终的结果是主备一致的,但如果表 t1 执行完成的瞬间,备库上有一个查询,就会看到这个事务“更新了一半的结果”,破坏了事务逻辑的隔离性。

coordinator 在分发的时候,需要满足以下这两个基本要求:

  • 更新同一行的两个事务,必须被分发到同一个 worker 中。
  • 同一个事务不能被拆开,必须放到同一个 worker 中。
MySQL 5.5 版本的并行复制策略

官方 MySQL 5.5 版本是不支持并行复制。

  • 按表分发策略
    按表分发事务的基本思路是:如果两个事务更新不同的表,它们就可以并行。 因为数据是存储在表里的,所以按表分发,可以保证两个 worker 不会更新同一行。
    如果有跨表的事务,还是要把两张表放在一起考虑。
    在这里插入图片描述
    每个 worker 线程对应一个 hash 表,用于保存当前正在这个 worker 的“执行队列”里的事务所涉及的表。hash 表的 key 是“库名. 表名”,value 是一个数字,表示队列中有多少个事务修改这个表。
    在有事务分配给 worker 时,事务里面涉及的表会被加到对应的 hash 表中。worker 执行完成后,这个表会被从 hash 表中去掉。

假设在图中的情况下,coordinator 从中转日志中读入一个新事务 T,这个事务修改的行涉及到表 t1 和 t3。

  1. 由于事务 T 中涉及修改表 t1,而 worker_1 队列中有事务在修改表 t1,事务 T 和队列中的某个事务要修改同一个表的数据,事务 T 和 worker_1 是冲突。
  2. 按照这个逻辑,顺序判断事务 T 和每个 worker 队列的冲突关系,会发现事务 T 跟 worker_2 也冲突。
  3. 事务 T 跟多于一个 worker 冲突,coordinator 线程就进入等待。
  4. 每个 worker 继续执行,同时修改 hash_table。假设 hash_table_2 里面涉及到修改表 t3 的事务先执行完成,就会从 hash_table_2 中把 db1.t3 这一项去掉。
  5. 这样 coordinator 会发现跟事务 T 冲突的 worker 只有 worker_1 了,因此就把它分配给 worker_1。coordinator 继续读下一个中转日志,继续分配事务。

每个事务在分发的时候,跟所有 worker 的冲突关系包括以下三种情况:

  1. 如果跟所有 worker 都不冲突,coordinator 线程就会把这个事务分配给最空闲的 woker;
  2. 如果跟多于一个 worker 冲突,coordinator 线程就进入等待状态,直到和这个事务存在冲突关系的 worker 只剩下 1 个;
  3. 如果只跟一个 worker 冲突,coordinator 线程就会把这个事务分配给这个存在冲突关系的 worker。

按表分发的方案,在多个表负载均匀的场景里应用效果很好。 但是,如果碰到热点表,比如所有的更新事务都会涉及到某一个表的时候,所有事务都会被分配到同一个 worker 中,就变成单线程复制了。

  • 按行分发策略
    按行复制的核心思路是:如果两个事务没有更新相同的行,它们在备库上可以并行执行(要求 binlog 格式必须是 row)。
    按行复制和按表复制的数据结构差不多,也是为每个 worker,分配一个 hash 表。只是要实现按行分发,这时候的 key 是“库名 + 表名 + 唯一键的值”。
CREATE TABLE `t1` (`id` int(11) NOT NULL,`a` int(11) DEFAULT NULL,`b` int(11) DEFAULT NULL,PRIMARY KEY (`id`),UNIQUE KEY `a` (`a`)
) ENGINE=InnoDB;insert into t1 values(1,1,1),(2,2,2),(3,3,3),(4,4,4),(5,5,5);

在这里插入图片描述
如果 session A 和 session B 被分到不同的 worker,就有可能 session B 的语句先执行,这时候 id=1 的行的 a 的值还是 1,就会报唯一键冲突。

相比于按表并行分发策略,按行并行策略在决定线程分发的时候,需要消耗更多的计算资源。

  • 要能够从 binlog 里面解析出表名、主键值和唯一索引的值。也就是说,主库的 binlog 格式必须是 row;
  • 表必须有主键;
  • 不能有外键。表上如果有外键,级联更新的行不会记录在 binlog 中,这样冲突检测就不准确。
MySQL 5.6 版本的并行复制策略

官方 MySQL5.6 版本,支持了并行复制,只是支持的粒度是按库并行

这个策略的并行效果,取决于压力模型。如果在主库上有多个 DB,并且各个 DB 的压力均衡,使用这个策略的效果会很好。

相比于按表和按行分发,这个策略有两个优势:

  • 构造 hash 值的时候很快,只需要库名;而且一个实例上 DB 数也不会很多,不会出现需要构造 100 万个项这种情况。
  • 不要求 binlog 的格式。 因为 statement 格式的 binlog 也可以很容易拿到库名。

如果主库上的表都放在同一个 DB 里面,这个策略就没有效果了;或者如果不同 DB 的热点不同,比如一个是业务逻辑库,一个是系统配置库,那也起不到并行的效果

MariaDB 的并行复制策略

MariaDB 的并行复制策略利用的特性:

  • 能够在同一组里提交的事务,一定不会修改同一行;
  • 主库上可以并行执行的事务,备库上也一定是可以并行执行的。

MariaDB 的做法:

  1. 在一组里面一起提交的事务,有一个相同的 commit_id,下一组就是 commit_id+1;
  2. commit_id 直接写到 binlog 里面;
  3. 传到备库应用的时候,相同 commit_id 的事务分发到多个 worker 执行;
  4. 这一组全部执行完成后,coordinator 再去取下一批。

这个策略并没有实现“真正的模拟主库并发度”这个目标。 在主库上,一组事务在 commit 的时候,下一组事务是同时处于“执行中”状态的。

主库的执行情况
在这里插入图片描述
trx1、trx2 和 trx3 提交的时候,trx4、trx5 和 trx6 是在执行的。

MariaDB 的并行复制策略
在这里插入图片描述
第一组事务完全执行完成后,第二组事务才能开始执行。
这个方案很容易被大事务拖后腿。假设 trx2 是一个超大事务,那么在备库应用的时候,trx1 和 trx3 执行完成后,就只能等 trx2 完全执行完成,下一组才能开始执行。这段时间,只有一个 worker 线程在工作,是对资源的浪费。

MySQL 5.7 的并行复制策略

官方的 MySQL5.7 版本由参数 slave-parallel-type 来控制并行复制策略。

  • 配置为 DATABASE,表示使用 MySQL 5.6 版本的按库并行策略;
  • 配置为 LOGICAL_CLOCK,表示的就是类似 MariaDB 的策略。

疑问:同时处于“执行状态”的所有事务,是否可以并行?
不能。可能有由于锁冲突而处于锁等待状态的事务。如果这些事务在备库上被分配到不同的 worker,就会出现备库跟主库不一致的情况。
MariaDB 这个策略的核心,是“所有处于 commit”状态的事务可以并行。事务处于 commit 状态,表示已经通过了锁冲突的检验了。
在这里插入图片描述
只要能够到达 redo log prepare 阶段,就表示事务已经通过锁冲突的检验了。

MySQL 5.7 并行复制策略的思想是:

  • 同时处于 prepare 状态的事务,在备库执行时是可以并行的;
  • 处于 prepare 状态的事务,与处于 commit 状态的事务之间,在备库执行时也是可以并行的。

binlog_group_commit_sync_delay 参数、binlog_group_commit_sync_no_delay_count 参数,是用于拉长 binlog 从 write 到 fsync 的时间,以此减少 binlog 的写盘次数。在 MySQL 5.7 的并行复制策略里,它们可以用来制造更多的“同时处于 prepare 阶段的事务”,增加备库复制的并行度。
这两个参数,既可以让主库提交得慢些,又可以让备库执行得快些。在 MySQL 5.7 处理备库延迟的时候,可以考虑调整这两个参数值,来达到提升备库复制并发度的目的。

MySQL 5.7.22 的并行复制策略

在 2018 年 4 月份发布的 MySQL 5.7.22 版本里,MySQL 增加了一个新的并行复制策略,基于 WRITESET 的并行复制
新增了一个参数 binlog-transaction-dependency-tracking,用来控制是否启用这个新策略。

  • COMMIT_ORDER,根据同时进入 prepare 和 commit 来判断是否可以并行的策略。
  • WRITESET,表示的是对于事务涉及更新的每一行,计算出这一行的 hash 值,组成集合
    writeset。如果两个事务没有操作相同的行,也就是说它们的 writeset 没有交集,就可以并行。
  • WRITESET_SESSION,是在 WRITESET 的基础上多了一个约束,即在主库上同一个线程先后执行的两个事务,在备库执行的时候,要保证相同的先后顺序。

这个 hash 值通过“库名 + 表名 + 索引名 + 值”计算出来。如果一个表上除了有主键索引外,还有其他唯一索引,那么对于每个唯一索引,insert 语句对应的 writeset 就要多增加一个 hash 值。

MySQL 5.7.22的优势

  • writeset 是在主库生成后直接写入到 binlog 里面的,这样在备库执行的时候,不需要解析 binlog 内容(event 里的行数据),节省了很多计算量;
  • 不需要把整个事务的 binlog 都扫一遍才能决定分发到哪个 worker,更省内存;
  • 由于备库的分发策略不依赖于 binlog 内容,所以 binlog_format=statement 也可以。

对于“表上没主键”和“外键约束”的场景,WRITESET 策略也是没法并行的,也会暂时退化为单线程模型。

这篇关于26 | 备库为什么会延迟好几个小时?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/921362

相关文章

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

ActiveMQ—消息特性(延迟和定时消息投递)

ActiveMQ消息特性:延迟和定时消息投递(Delay and Schedule Message Delivery) 转自:http://blog.csdn.net/kimmking/article/details/8443872 有时候我们不希望消息马上被broker投递出去,而是想要消息60秒以后发给消费者,或者我们想让消息没隔一定时间投递一次,一共投递指定的次数。。。 类似

MySQL主从同步延迟原理及解决方案

概述 MySQL的主从同步是一个很成熟的架构,优点为: ①在从服务器可以执行查询工作(即我们常说的读功能),降低主服务器压力; ②在从主服务器进行备份,避免备份期间影响主服务器服务; ③当主服务器出现问题时,可以切换到从服务器。 相信大家对于这些好处已经非常了解了,在项目的部署中也采用这种方案。但是MySQL的主从同步一直有从库延迟的问题,那么为什么会有这种问题。这种问题如何解决呢? MyS

每日一题~cf 970 div3 (A思维,B小模拟,C二分,D排列数建图成环,E 26个字母暴力+前缀和,F 逆元,G 数论gcd )

A 题意: 有 a 个1 ,b 个2.问是否能将这些数划分为两个数值相等的集合。 输出 YES 或者 NO —————— 问题等价于 将数组 分成两个数值相同的数组。所以sum 应该是偶数。也就是说 1 的个数是偶数。在i1的个数是偶数的情况下,将 2 分成两份,如果2 的个数是偶数,OK。如果是奇数那么需要1来补齐,如果1 的个数大于等于2那么可以补齐。(1 的个数是偶数,需要2个1来补齐,剩下

三分钟全面了解低代码,两小时实现应用系统搭建

在数字化转型的浪潮中,企业对于快速开发和部署应用系统的需求日益增长。传统的软件开发方法往往耗时且成本高昂,而低代码开发平台的出现,为解决这一问题提供了全新的视角。本文将带你三分钟全面了解低代码开发,并在两小时内实现一个简单的应用系统搭建。 低代码开发简介 低代码开发是一种新兴的开发模式,它通过图形化界面和配置化手段,使得开发者和业务人员能够以极简的代码或无需编写代码即可实现应用系统的开

PHP 将秒数格式化转化为天,小时分钟秒

场景:现在得到一个订单的超时秒数  想把他转为xx小时xx分钟xx秒    实现代码如下: $init = 686;function secondsToTime($init){$hours = floor($init / 3600);$minutes = floor(($init / 60) % 60);$seconds = $init % 60;return"{$hours}时{$minut

26 页高清大数据开发代码速查表,提升效率必备!【可下载】

各大互联网公司高价抢夺数据人才,为谋求长期发展、获得高薪,很多人转行到了大数据领域。这条路人才虽缺,但要成为优秀大数据工程师并不轻松:别的不说,光学习新技术,巩固旧知识,就需要耗费大量时间精力,实属不易。 为帮助大家提高学习效率,方便日后查找和使用,这里整理了一份大数据开发代码速查表资料,内容包括 Spark、Hadoop 及 Hive 等大数据开发主要知识点。 由于篇幅原因,下面只展示了速查表

26 页高清分布式集群代码速查表,提升效率必备!【可下载】

各大互联网公司高价抢夺海量数据处理、分布式系统开发人才,为谋求长期发展、获得高薪,很多人转行到了大数据、分布式、集群运维领域。这条路人才虽缺,但并不轻松:别的不说,光学习新技术,巩固旧知识,就需要耗费大量时间精力,实属不易。 为帮助大家提高学习和工作效率,方便日后查找和使用其中涉及的知识点,这里整理了一份分布式/集群开发、运维的代码速查表资料,内容包括 Spark、Hadoop 及 Hive 等

Flink全链路延迟的测量方式和实现原理

点击上方蓝色字体,选择“设为星标” 回复”面试“获取更多惊喜 本文已经加入「大数据成神之路PDF版」中提供下载。你可以关注公众号,后台回复:「PDF」 即可获取。 一、背景 Flink Job端到端延迟是一个重要的指标,用来衡量Flink任务的整体性能和响应延迟(大部分流式应用,要求低延迟特性)。 通过流处理引擎竞品对比,我们发现大部分流计算引擎产品,都在告警监控页面,集成了全链路时延指标

dispatch_after 的延迟执行分析

dispcth_after 是将block 中的任务延迟添加到它将要执行的队列中去,而并不一定添加到队列中就立即会去执行任务。 图中表示是在5秒中后将任务添加到主队列中,如果主队列中还有另外的任务假设A、B 要执行,那么这个任务会在任务A、B 执行完后才会开始执行。 验证的代码如下: dispatch_after(dispatch_time(DISPATCH_TIME_NOW, (int