lsn mysql_mysql源码片段 innodb启动checkpoint flush脏页 lsn几个关键点检查过程整理

本文主要是介绍lsn mysql_mysql源码片段 innodb启动checkpoint flush脏页 lsn几个关键点检查过程整理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

mysql innodb引擎如何判断进程是正常停止(shutdown停止)

还是异常停止(crash 或者 被kill 或者主机宕机导致的进程停止)呢?代码是如何判断的呢

注:代码来源于mysql5.7.27

innodb 启动入口函数 innobase_start_or_create_for_mysql

调用recv_recovery_from_checkpoint_start 检查redo日志该如何启动

概括几个点

1 如果 checkpoint_lsn 与 flush_lsn 不相等 则表示mysql 非正常停止

2 checkpoint 写redo日志的检查点 recv_sys->mlog_checkpoint_lsn == 0

3 redo日志文件循环使用,启动时如何判断myql服务停止前redo日志记录的位置

详细描述

mysql 是否正常停止

判断 checkpoint_lsn 与 flush_lsn 是否相等

如果相等则正常停止

如果不相等,则非正常停止

/*

函数 recv_recovery_from_checkpoint_start

日志扫描完成后判断是否正常停止

checkpoint_lsn 为log_checkpoint 的lsn

flush_lsn 为redo日志写到磁盘的lsn,仅仅在正常停止的时候才更新

*/

文件log0recv.cc的代码片段

ac6a1c23303a5fd66e14dcf46bc9d258.png

/*设置标志位,正式明确需要恢复redo日志*/

0358 /*******************************************************//**

0359 Initialize crash recovery environment. Can be called iff

0360 recv_needed_recovery == false. */

0361 static

0362 void

0363 recv_init_crash_recovery(void)

0364 {

0365 ut_ad(!srv_read_only_mode);

0366 ut_a(!recv_needed_recovery);

0367 /*设置标志位,说明非正常停止,需要恢复日志*/

0368 recv_needed_recovery = true;

0369 }

flush_lsn读取

函数 innobase_start_or_create_for_mysql(void)

/*读取ibdata1文件中记录第一个page FIL_PAGE_FILE_FLUSH_LSN的位置存储的 lsn*/

fsp0sysspace.cc

1934 err = srv_sys_space.open_or_create(

1935false, create_new_db, &sum_of_new_sizes, &flushed_lsn);

fsp0file.cc

561 *flush_lsn = mach_read_from_8(

562m_first_page + FIL_PAGE_FILE_FLUSH_LSN);

/*读取flushed_lsn堆栈信息*/

#0 Datafile::validate_first_page (this=0x2deb438, flush_lsn=0x7fffffff9150, for_import=false) at storage/innobase/fsp/fsp0file.cc:559

#1 0x0000000001c0931c in SysTablespace::read_lsn_and_check_flags (this=0x2d8d460 , flushed_lsn=0x7fffffff9150) at storage/innobase/fsp/fsp0sysspace.cc:580

#2 0x0000000001c0a961 in SysTablespace::open_or_create (this=0x2d8d460 , is_temp=false, create_new_db=false, sum_new_sizes=0x7fffffff9110, flush_lsn=0x7fffffff9150) at storage/innobase/fsp/fsp0sysspace.cc:935

#3 0x0000000001a9c2df in innobase_start_or_create_for_mysql () at storage/innobase/srv/srv0start.cc:1935

#4 0x00000000018c21d9 in innobase_init (p=0x2de9fc0) at storage/innobase/handler/ha_innodb.cc:4080

#5 0x0000000000f2ee02 in ha_initialize_handlerton (plugin=0x2f4db90) at sql/handler.cc:840

#6 0x0000000001568fd4 in plugin_initialize (plugin=0x2f4db90) at sql/sql_plugin.cc:1226

#7 0x0000000001569c3a in plugin_register_builtin_and_init_core_se (argc=0x2d1b050 , argv=0x2de82d8) at sql/sql_plugin.cc:1589

#8 0x0000000000ea8fdf in init_server_components () at sql/mysqld.cc:4079

#9 0x0000000000eaa5b4 in mysqld_main (argc=92, argv=0x2de82d8) at sql/mysqld.cc:4773

#10 0x0000000000ea21bd in main (argc=3, argv=0x7fffffffe4b8) at sql/main.cc:25

checkpoint_lsn 读取

在函数recv_recovery_from_checkpoint_start读取

读取第一个redo日志文件(即ib_logfile0)前2048字节(4*512)

在第一个512与第三个512位置读取最大一个lsn,即为checkpoint_lsn

代码如下

/* Look for the latest checkpoint from any of the log groups */

/*通过比较第2个512字节(512~1024)与第4个512字节(1536~2048)中存储的checkpoint lsn,读取最大值得所有内容*/

4065err = recv_find_max_checkpoint(&max_cp_group, &max_cp_field);

4066

4067if (err != DB_SUCCESS) {

4068

4069log_mutex_exit();

4070

4071return(err);

4072}

4073

4074log_group_header_read(max_cp_group, max_cp_field);

4075

4076buf = log_sys->checkpoint_buf;

4077 /*读取最大值所在的buf中,取出8字节,并转换long,获取checkpoint时的lsn,lsn通过512对齐后,得到新的lsn的起始位置,从ib_logfile(0,1...)中开始读取第一个block(512字节)redo记录,从block读取出第一个mtr起始记录,开始解析redo日志*/

4078checkpoint_lsn = mach_read_from_8(buf + LOG_CHECKPOINT_LSN);

4079checkpoint_no = mach_read_from_8(buf + LOG_CHECKPOINT_NO);

/*recv_find_max_checkpoint*/

/*

读取第2个与第4个

for (field = 512; field <= 3 * 512;field += 3 * 512 - 512)

*/

1338 for (field = LOG_CHECKPOINT_1; field <= LOG_CHECKPOINT_2;

1339 field += LOG_CHECKPOINT_2 - LOG_CHECKPOINT_1) {

1340

1341log_group_header_read(group, field);

1342

1343if (!recv_check_log_header_checksum(buf)) {

1344DBUG_PRINT("ib_log",

1345 ("invalid checkpoint,"

1346 " group " ULINTPF " at " ULINTPF

1347 ", checksum %x",

1348 group->id, field,

1349 (unsigned) log_block_get_checksum(

1350 buf)));

1351continue;

1352}

1353

1354group->state = LOG_GROUP_OK;

1355 /*读取checkpoint lsn*/

1356group->lsn = mach_read_from_8(

1357buf + LOG_CHECKPOINT_LSN);

1358group->lsn_offset = mach_read_from_8(

1359buf + LOG_CHECKPOINT_OFFSET);

1360checkpoint_no = mach_read_from_8(

1361buf + LOG_CHECKPOINT_NO);

1368if (checkpoint_no >= max_no) {

1369*max_group = group;

1370*max_field = field;

1371max_no = checkpoint_no;

1372}

1373}

1374

1375group = UT_LIST_GET_NEXT(log_groups, group);

1376}

checkpoint_lsn 之后的redo日志都接解析完成后,判断checkpoint_lsn 判断与flush_lsn 是否相等

执行上述代码,判断后续流程是否恢复解析redo日志

log_checkpoint 9字节redo日志

如果在redo日志中找不到9字节checkpoint日志则报错无法正常启动,需要dba特殊处理

代码检查点为

/*

recv_sys->mlog_checkpoint_lsn

如果为0 则说明在redo日志没有找到9字节的checkpoint的redo日志的记录

如果不为0 则为checkpoint_lsn的值

如果为0 且 checkpoint_lsn又不是redo日志的最后记录(group->scanned_lsn != checkpoint_lsn),则为异常情况

*/

4161if (recv_sys->mlog_checkpoint_lsn == 0) {

4162if (!srv_read_only_mode

4163 && group->scanned_lsn != checkpoint_lsn) {

4164ib::error() << "Ignoring the redo log due to missing"

4165" MLOG_CHECKPOINT between the checkpoint "

4166<< checkpoint_lsn << " and the end "

4167<< group->scanned_lsn << ".";

4168if (srv_force_recovery < SRV_FORCE_NO_LOG_REDO) {

4169log_mutex_exit();

4170return(DB_ERROR);

4171}

4172}

4173

4174group->scanned_lsn = checkpoint_lsn;

4175rescan = false;

4176}

解析redo日志,recv_sys->mlog_checkpoint_lsn赋值的地方

log0recv.cc 中函数recv_parse_log_recs中

3182 if (single_rec) {

3224 switch (type) {

3229 case MLOG_CHECKPOINT:

3230 #if SIZE_OF_MLOG_CHECKPOINT != 1 + 8

3231 # error SIZE_OF_MLOG_CHECKPOINT != 1 + 8

3232 #endif /*从redo日志读取8字节,转换成lsn,(当时做checkpoint时的lsn)*/

3233lsn = mach_read_from_8(ptr + 1);

3234

3235DBUG_PRINT("ib_log",

3236 ("MLOG_CHECKPOINT(" LSN_PF ") %s at "

3237 LSN_PF,

3238 lsn,

3239 lsn != checkpoint_lsn ? "ignored"

3240 : recv_sys->mlog_checkpoint_lsn

3241 ? "reread" : "read",

3242 recv_sys->recovered_lsn));

3243 /*lsn redo日志中去读的lsn 是否是当前的 checkpoint_lsn*/

3244if (lsn == checkpoint_lsn) {

3245if (recv_sys->mlog_checkpoint_lsn) {

3246/* At recv_reset_logs() we may

3247write a duplicate MLOG_CHECKPOINT

3248for the same checkpoint LSN. Thus

3249recv_sys->mlog_checkpoint_lsn

3250can differ from the current LSN. */

3251ut_ad(recv_sys->mlog_checkpoint_lsn

3252 <= recv_sys->recovered_lsn);

3253break;

3254}

/*把当前lsn赋值给recv_sys->mlog_checkpoint_lsn,使其不为0*/

3255recv_sys->mlog_checkpoint_lsn

3256= recv_sys->recovered_lsn;

3257}

解析redo日志终止的判断

读取redo日志的一个block(512字节),解析12字节的头(LOG_BLOCK_HDR_DATA_LEN),读取当前block中redo日志的长度

如果为512,则此block不为最后一个redo记录的block

如果小于512 则此block为mysql服务停止后,最后一个redo记录的block

在log0recv.cc 函数中

recv_group_scan_log_recs->recv_scan_log_recs

3595do {

/*读取当前block中redo的长度*/

3639data_len = log_block_get_data_len(log_block);

/*如果当前block中redo的长度不足512,则redo全部读取完成,则退出循环*/

3729if (data_len < OS_FILE_LOG_BLOCK_SIZE) {

3730/* Log data for this group ends here */

3731finished = true;

3732break;

3733} else {

3734log_block += OS_FILE_LOG_BLOCK_SIZE;

3735}

3736} while (log_block < buf + len);

3737 /*记录当前redo日志的最大长度*/

3738*group_scanned_lsn = scanned_lsn;

这篇关于lsn mysql_mysql源码片段 innodb启动checkpoint flush脏页 lsn几个关键点检查过程整理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/385373

相关文章

浅析Spring Security认证过程

类图 为了方便理解Spring Security认证流程,特意画了如下的类图,包含相关的核心认证类 概述 核心验证器 AuthenticationManager 该对象提供了认证方法的入口,接收一个Authentiaton对象作为参数; public interface AuthenticationManager {Authentication authenticate(Authenti

SQL中的外键约束

外键约束用于表示两张表中的指标连接关系。外键约束的作用主要有以下三点: 1.确保子表中的某个字段(外键)只能引用父表中的有效记录2.主表中的列被删除时,子表中的关联列也会被删除3.主表中的列更新时,子表中的关联元素也会被更新 子表中的元素指向主表 以下是一个外键约束的实例展示

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

如何去写一手好SQL

MySQL性能 最大数据量 抛开数据量和并发数,谈性能都是耍流氓。MySQL没有限制单表最大记录数,它取决于操作系统对文件大小的限制。 《阿里巴巴Java开发手册》提出单表行数超过500万行或者单表容量超过2GB,才推荐分库分表。性能由综合因素决定,抛开业务复杂度,影响程度依次是硬件配置、MySQL配置、数据表设计、索引优化。500万这个值仅供参考,并非铁律。 博主曾经操作过超过4亿行数据

作业提交过程之HDFSMapReduce

作业提交全过程详解 (1)作业提交 第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。 第2步:Client向RM申请一个作业id。 第3步:RM给Client返回该job资源的提交路径和作业id。 第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。 第5步:Client提交完资源后,向RM申请运行MrAp

每天认识几个maven依赖(ActiveMQ+activemq-jaxb+activesoap+activespace+adarwin)

八、ActiveMQ 1、是什么? ActiveMQ 是一个开源的消息中间件(Message Broker),由 Apache 软件基金会开发和维护。它实现了 Java 消息服务(Java Message Service, JMS)规范,并支持多种消息传递协议,包括 AMQP、MQTT 和 OpenWire 等。 2、有什么用? 可靠性:ActiveMQ 提供了消息持久性和事务支持,确保消

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

MySQL数据库宕机,启动不起来,教你一招搞定!

作者介绍:老苏,10余年DBA工作运维经验,擅长Oracle、MySQL、PG、Mongodb数据库运维(如安装迁移,性能优化、故障应急处理等)公众号:老苏畅谈运维欢迎关注本人公众号,更多精彩与您分享。 MySQL数据库宕机,数据页损坏问题,启动不起来,该如何排查和解决,本文将为你说明具体的排查过程。 查看MySQL error日志 查看 MySQL error日志,排查哪个表(表空间

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

springboot3打包成war包,用tomcat8启动

1、在pom中,将打包类型改为war <packaging>war</packaging> 2、pom中排除SpringBoot内置的Tomcat容器并添加Tomcat依赖,用于编译和测试,         *依赖时一定设置 scope 为 provided (相当于 tomcat 依赖只在本地运行和测试的时候有效,         打包的时候会排除这个依赖)<scope>provided