第三十三章:锁

2023-10-20 05:20
文章标签 第三十三章

本文主要是介绍第三十三章:锁,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

第三十三章:锁

33.1:概述

是计算机协调多个进行或线程并发访问某一资源的机制。在程序开发中会存在多线程同步的问题,当多个线程并发访问某个数据的时候,尤其是针对一些敏感数据,我们就需要保证这个数据在任何时刻最多只有一个线程在访问,保证数据的完整性一致性

​ 在数据库中,除传统的计算资源(CPU、RAM、 I/O)的争用以外,数据也是一种供许多用户共享的资源。为保证数据的一致性,需要对并发操作进行控制,因此产生了。同时锁机制也为了实现MySQL的各个隔离级别提供了保证。锁冲突也是影响数据库并发访问性能的一个重要因素。

33.2:MySQL并发事务访问相同记录

  1. 读-读

    ​ 即并发事务相继读取相同的记录。读取操作本身不会对记录有任何影响,并不会引起什么问题,所以允许这种情况的发生。

  2. 写-写

    ​ 即并发事务相继对相同的记录做出改动。在这种情况下会发生脏写的问题,任何一种隔离级别都不允许这种问题的发生。所以在多个未提交事务相继对的一条记录做改动时,需要让它们排队执行,这个排队的过程其实时通过来实现的。这个所谓的锁其实是一个内存中的结构,在事务执行前本来是没有锁的,也就是说一开始是没有锁结构和记录进行关联的。
    在这里插入图片描述

    ​ 当一个事物想对这条记录做改动时,首先会看看内存中有没有与这条记录关联的锁结构,当没有的时候就会在内存中生成一个锁结构与之关联。
    在这里插入图片描述

    ​ 在锁结构里有很多信息,为了简化理解,只把两个比较重要的属性拿了出来:

    • trx信息:代表这个锁结构是哪个事务生成的。
    • is_waiting:代表当前事务是否在等待。

    ​ 当事务T1改动了这条记录后,就生成了一个锁结构与该记录关联,因为之前没有别的事务为这条记录加锁,所以is_waiting属性就是false,我们把这个场景就称之为获取锁成功,或者加锁成功,然后就可以继续执行操作了。

    ​ 在事务T1提交之前,另一个事务T2也想对该记录做改动,那么先看看有没有锁结构与这条记录关联,发现有一个锁结构与之关联后,然后也生成了一个锁结构与这条记录关联,不过锁结构的is-waiting属性值为true,表示当前事务需要等待,我们把这个场景就称之为获取锁失败,或者加锁失败
    在这里插入图片描述

    ​ 在事务T1提交之后,就会把该事物生成的锁结构释放掉,然后看看还有没有别的事物在等待获取锁,发现事物T2还在等待获取锁,所以把事务T2对应的锁结构的is_waiting属性设置为false,然后把该事物对应的线程唤醒,让它继续执行,此时事物T2就算获取到了锁了。

  3. 读-写 或 写-读

    ​ 即一个事物进行读取操作,另一个进行改动操作。这种情况下可能发生脏读不可重复读幻读的问题。

  4. 并发问题的解决方案

    怎么解决脏读、不可重复读、幻读这些问题呢?其有两种可选的解决方案:

    • 方案一:读操作利用多版本并发控制(MVCC),写操作进行加锁。

      ​ 所谓的MVCC,就是生成一个ReadView,通过ReadView找到符合条件的记录版本(历史版本由undo日志构建)。查询语句只能到在生成ReadView之前已提交事务所做的更改,在生成ReadView之前未提交的事务或者之后才开启的事务所做的更改是看不到的。而写操作肯定针对的是最新版本的记录,读记录的历史版本和改动记录的最新版本本身并不冲突,也就是采用MVCC时,读-写操作并不冲突。

    • 方案二:读、写操作都采用加锁的方式。

      ​ 如果我们的一些业务场景不允许读取记录的旧版本,而是每次都必须去读取记录的最新版本。比如,在银行存款的事务中,你需要先把账户的余额读出来,然后将其加上本次存款的数额,最后再写到数据库中。在将账户余额读取出来后,就不想让别的事务再访问该余额,直到本次存款事务执行完成,其他事务才可以访问账户的余额。这样在读取记录的时候就需要对其进行加锁操作,这样也就意味着操作和操作也像写-写操作那样排队执行。

      脏读的产生是因为当前事务读取了另一个未提交事务写的一条记录,如果另一个事务在写记录的时候就给这条记录加锁,那么当前事务就无法继续读取该记录了,所以也就不会有脏读问题的产生了。

      不可重复读的产生是因为当前事务先读取一条记录,另外一个事务对该记录做了改动之后并提交之后,当前事务再次读取时会获得不同的值,如果在当前事务读取记录时就给该记录加锁,那么另一个事务就无法修改该记录,自然也不会发生不可重复读了。

      幻读问题的产生是因为当前事务读取了一个范围的记录,然后另外的事务向该范围内插入了新记录,当前事务再次读取该范围的记录时发现了新插入的新记录。采用加锁的方式解决幻读问题就有一些麻烦,因为当前事务在第一次读取记录时幻影记录并不存在,所以读取的时候加锁就有点尴尬(因为你并不知道给谁加锁)。

32.3:锁的不同角度分类

  1. 从数据操作的类型划分:读锁、写锁(共享锁、排他锁)

    ​ 对于数据库中并发事务的读-读情况并不会引起什么问题。对于写-写读-写写-读这些情况可能会引起一些问题,需要使用MVCC或者加锁的方式来解决它们。在使用加锁的方式解决问题时,由于既要允许读-读情况不受影响,又要使写-写读-写写-读情况中的操作相互阻塞,所以MySQL实现一个由两种类型的锁组成的锁组成的锁系统来解决。这两种类型的锁通常被称为共享锁(Shared Lock, S Lock)和排他锁(Exclusive Lock, X Lock),也叫读锁(readlock)和写锁(write lock)。

    ​ 读锁:也称为共享锁、英文用S表示。针对同一份数据,多个事物的读操作可以同时进行而不会互相影响,相互不阻塞的。

    ​ 写锁:也称为排他锁、英文用X表示。当前写操作没有完成前,它会阻断其他写锁和读锁。这样就能确保在给定的时间里,只有一个事物能执行写入,并防止其他用户读取正在写入的同一资源。

    XS
    X不兼容不兼容
    S不兼容兼容
    • 锁定读

      ​ 在采用加锁方式解决脏读不可重复读幻读这些问题时,读取一条记录时需要获取该记录的S锁,其实是不严谨的,有时候需要在读取记录时就获取记录的X锁,来禁止别的事务读写该记录,为此MySQL提出了两种比较特殊的SELECT语句格式:

      # 对读取的记录加S锁
      SELECT .. LOCK IN SHARE MODE;
      SELECT .. FOR SHARE; # (8.O新增语法) # 在普通的SELECT语句后边加LOCK IN SHARE MODE,如果当前事务执行了该语句,那么它会为读取到的记录加S锁,
      # 这样允许别的事务继续获取这些记录的S锁,但是不能获取这些记录的X锁
      # 如果别的事务想要获取这些记录的X锁,那么它们会阻塞,直到当前事务提交之后将这些记录上的S锁释放掉。# 对读取的记录加X锁
      SELECT .. FOR UPDATE;# 在普通的SELECT语句后边加FOR UPDATE,如果当前事务执行了该语句,那么它会为读取到的记录加X锁,
      # 这样既不允许别的事务获取这些记录的S锁,也不允许获取这些记录的X锁。
      # 如果别的事务想要获取这些记录的$锁或者X锁,那么它们会阻塞,直到当前事务提交之后将这些记录上的X锁释放掉。
      

      MySQL 8.0新特性:

      ​ 在5.7及之前的版本,SELECT ... FOR UPDATE,如果获取不到锁,会一直等待,直到innodb_lock_wait_timeout超时。在8.0版本中,SELECT ... FOR UPDATESELECT ... FOR SHARE添加NOWAITSKIP LOCKED语法,跳过锁等待,或者跳过锁定。通过添加NOWAITSKIP LOCKED语法,能够立即返回。如果查询的行已经加锁:

      1. 那么NOWAIT会立即报错返回。
      2. SKIP LOCKED也会立即返回,只是返回的结果中不包含被锁定的行。
      # 举例
      SELECT * FROM account FOR UPDATE nowait; 
      SELECT * FROM account FOR UPDATE skip locked;
      
    • 写操作

      平常所用到的写操作无非是DELETEUPDATEINSERT这三种:

      1. DELETE

        ​ 对一条记录做DELETE操作的过程其实是先在B+树中定位到这条记录的位置,然后获取这条记录的X锁,再执行delete mark操作。我们也可以把这个定位待删除记录在B+树中位置的过程看成是一个获取X锁的锁定读

      2. UPDATE:在对一条记录做UPDATE操作时分为三种情况

        • 情况1:未修改该记录的键值,并且被更新的列占用的存储空间在修改前后未发生变化

          ​ 则先在B+树中定位到这条记录的位置,然后再获取一下记录的X锁,最后在原记录的位置进行修改操作。我们也可以把这个定位待修改记录在B+树中位置的过程看成是一个获取X锁的锁定读

        • 情况2:未修改该记录的键值,并且至少有一个被更新的列占用的存储空间在修改前后发生变化

          ​ 则先在B+树中定位到这条记录的位置,然后获取一下记录的X锁,将该记录彻底删除掉(就是把记录彻底移入垃圾链表),最后再插入一条新记录。这个定位待修改记录在B+树中位置的过程看成是一个获取X锁的锁定读,新插入的记录由INSERT操作提供的隐式锁进行保护。

        • 情况3:修改了该记录的键值,则相当于在原记录上做DELETE操作之后再来一次INSERT操作,加锁操作就需要按照DELETEINSERT的规则进行了。

      3. INSERT

        ​ 一般情况下,新插入一条记录的操作并不加锁,通过一种称之为隐式锁的结构来保护这条新插入的记录在本事务提交前不被别的事务访问。

  2. 从数据操作的粒度划分:表级锁、页级锁、行级锁

    ​ 为了尽可能提高数据库的并发度,每次锁定的数据范围越小越好,理论上每次只锁定当前操作的数据的方案会得到最大的并发度,但是管理锁是很耗资源的事情(涉及获取、检查、释放锁等动作)。因此数据库系统需要在高并发响应系统性能两方面进行平衡,这样就产生了“锁粒度(Lock granularity)”的概念。
    ​ 对一条记录加锁影响的也只是这条记录而已,这个锁的粒度比较细;其实一个事务也可以在表级别进行加锁,自然就被称之为表级锁或者表锁,对一个表加锁影响整个表中的记录,这个锁的粒度比较粗。锁的粒度主要分为表级锁页级锁行锁

    • 表锁

      ​ 该锁会锁定整张表,它是MySQL中最基本的锁策略,并不依赖于存储引擎,并且表锁是开销最小的策略。由于表级锁一次会将整个表锁定,所以可以很好的避免死锁问题。当然,锁的粒度大所带来的负面影响就是出现锁资源争用的概率也会最高,导致并发率大打折扣

      1. 表级别的S锁、X

        ​ 在对某个表执行SELECTINSERTDELETEUPDATE语句时,InnoDB存储引擎是不会为这个表添加表级别的S锁或者X锁的。在对某个表执行一些诸如ALTER TABLEDROP TABLE这类的DDL语句时,其他事务对这个表并发执行诸如SELECTINSERTDELETEUPDATE的语句会发生阻塞。同理,某个事务中对某个表执行SELECTINSERTDELETEUPDATE语句时,在其他会话中对这个表执行DDL语句也会发生阻塞。这个过程其实是通过在server层使用一种称之为元数据锁(英文名:Metadata Locks,简称MDL)结构来实现的。

        ​ 一般情况下,不会使用InnoDB存储引擎提供的表级别的S锁和X锁。只会在一些特殊情况下,比方说崩溃恢复过程中用到。比如,在系统变量autocommit=0innodb_table_locks=1时,手动获取InnoDB存储引擎提供的表t的S锁或者X锁可以这么写:

        • LOCK TABLES t READInnoDB存储引擎会对表t加表级别的S锁。
        • LOCK TABLES t WRITEInnoDB存储引擎会对表t加表级别的X锁。

        ​ 不过尽量避免在使用InnoDB存储引擎的表上使用LOCK TABLES这样的手动锁表语句,它们并不会提供什么额外的保护,只是会降低并发能力而已。InnoDB的厉害之处还是实现了更细粒度的行锁

        MyISAM引擎下的表锁:

        # 语法
        LOCK TABLES 表名 READ; # 加S锁
        LOCK TABLES 表名 WRITE; # 加X锁
        UNLOCK TABLES; #释放当前加锁的表
        

        MyISAM在执行查询语句(SELECT)前,会给涉及的所有表加读锁,在执行增删改操作前,会给涉及的表加写锁。InnoDB存储引擎是不会为这个表添加表级别的读锁或者写锁的。

        MySQL的表级锁有两种模式:(以MyISAM表进行操作的演示)

        • 表共享读锁(Table Read Lock)
        • 表独占写锁(Table Write Lock)
        锁类型自己可读自己可写自己可操作其他表他人可读他人可写
        读锁否,等
        写锁否,等否,等
      2. 意向锁(Intention Lock)

        InnoDB支持多粒度锁(multiple granularity locking),它允许行级锁表级锁共存,而意向锁就是其中的一种表锁。

        • 意向锁的存在是为了协调锁和表的关系,支持多粒度(表锁与行锁)的锁并存。
        • 意向锁是一种不与行级锁冲入表级锁,这一点非常重要。
        • 表名某个事务正在某些行持有了锁或该事务准备去持有锁。

        意向锁分为两种:

        • 共享意向锁(intention shared lock, IS):事务有意向对表中的某些行加共享锁(S锁)

          # 事务要获取某些行的S锁,必须先获得表的IS锁
          SELECT column FROM table ... LOCK IN SHARE MODE;
          
        • 意向排他锁(intention exclusive lock, IX):事务有意向对表中的某些行加排他锁(X锁)

          # 事务要获取某些行的X锁,必须先获得表的IX锁
          SELECT column FROM table ... FOR UPDATE;
          

        ​ 即意向锁是由存储引擎自己维护的,用户无法手动操作意向锁,在为数据行加共享/排他锁之前,InnoDB会先获取该数据行所在数据表的对应意向锁。

        • 意向锁要解决的问题

          ​ 现在有两个事务,分别是T1T2,其中T2试图在该表级别上应用共享或排它锁,如果没有意向锁存在,那么T2就需要去检查各个页或行是否存在锁;如果存在意向锁,那么此时就会受到由T1控制的表级别意向锁的阻塞T2在锁定该表前不必检查各个页或行锁,而只需检查表上的意向锁。

          ​ 在数据表的场景中,如果我们给某一行数据加上了排它锁,数据库会自动给更大一级的空间,比如数据页或数据表加上意向锁,告诉其他人这个数据页或数据表已经有人上过排它锁了,这样当其他人想要获取数据表排它锁的时候,只需要了解是否有人已经获取了这个数据表的意向排他锁即可。

          1. 如果事务想要获得数据表中某些记录的共享锁,就需要在数据表上添加意向共享锁
          2. 如果事务想要获得数据表中某些记录的排他锁,就需要在数据表上添加意向排他锁

        我们需要知道意向锁之间的兼容互斥性:

        意向共享锁(IS)意向排他锁(IX)
        意向共享锁(IS)兼容兼容
        意向排他锁(IX)兼容兼容

        虽然意向锁和自家兄弟相互兼容,但是它会与普通的排他/共享锁互斥:

        意向共享锁(IS)意向排他锁(IX)
        共享锁(S)兼容互斥
        排他锁(X)互斥互斥
        • 意向锁的并发性

          意向锁不会与行级的共享/排他锁互斥!正因为如此,意向锁并不会影响到多个事物对不同数据行加排他锁时的并发性。

      3. 自增锁(Auto-Inc)

        # 建表
        CREATE TABLE teacher(id INT NOT NULL AUTO_INCREMENT,name VARCHAR(255) NOT NULL,PRIMARY KEY(id)
        )ENGIN=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;
        # 插入数据
        INSERT INTO teacher(name) VALUES('zhangsan'), ('lisi');
        

        ​ 现在我们看到的上面插入数据只是一种简单的插入模式,所有插入数据的方式总共分为三类:Simple insertsBulk insertsMixed-mode inserts

        • Simple inserts(简单插入)

          ​ 可以预先确定要插入的行数(当语句被初始化处理时)的语句。包括没有嵌套子查询的单行和多行INSERT ... VALUES()REPLACE语句。

        • Bulk inserts(批量插入)

          ​ 事先不知道要插入的行数(和所需自动递增值的数量)的语句。比如INSERT ... SELECTREPLACE ... SELECTLOAD DATA语句,但不包括纯INSERTInnoDB在每处理一行,为AUTO_INCREMENT列分配一个新值。

        • Mixed-mode inserts(混合模式插入)

          ​ 这些是Simple inserts语句但是指定部分新行的自动递增值。例如INSERT INTO teacher(id, name) VALUES(1, 'a'), (NULL, 'b'), (5, 'c'), (NULL, 'd');只是指定了部分id的值。另一种类型的混合模式插入是INSERT ... ON DUPLICATE KEY UPDATE

        ​ 对于上面数据插入的案例,MySQL中采用了自增锁的方式来实现,AUTO-INC锁是当向使用含有AUTO_INCREMENT列的表中插入数据时需要获取的一种特殊的表级锁,在执行插入语句时就在表级别加一个**AUTO-INC锁**,然后为每条待插入记录的AUTO_INCREMENT修饰的列分配递增的值,在该语句执行结束后,再把AUTO-INC锁释放掉。一个事务在持有UTO-INC锁的过程中,其他事务的插入语句都要被阻塞,可以保证一个语句中分配的递增值是连续的。也正因为此,其并发性显然并不高,当我们向一个有AUTO_INCREMENT关键字的主键插入值的时候,每条语句都要对这个表锁进行竞争,这样的并发潜力其实是很低下的,所以innodb通过innodb_autoinc_lock_mode的不同取值来提供不同的锁定机制,来显著提高SQL语句的可伸缩性和性能。

        # 传统锁定模式
        # 在此锁定模式下,所有类型的inserti语句都会获得一个特殊的表级AUTO-INC锁,用于插入具有AUTO_INCREMENT列的表。
        # 这种模式其实就如我们上面的例子,即每当执行insert的时候,都会得到一个表级锁(AUTO-INC锁),
        # 使得语句中生成的auto_increment为顺序,且在binlog中重放的时候,
        # 可以保证master与slave中数据的auto_increment是相同的。因为是表级锁,
        # 当在同一时间多个事务中执行insert的时候,对于AUTO-INC锁的争夺会限制并发能力。
        innodb_autoinc_lock_mode=0# 连续锁定模式
        # 在MySQL8.0之前,连续锁定模式是默认的。在这个模式下,bulk inserts仍然使用AUTO-INC表级锁,并保持到语句结束。
        # 这适用于所有INSERT..SELECT,REPLACE.SELECT和LOAD DATA语句。同一时刻只有一个语句可以持有AUTO-INC锁。
        # 对于Simple inserts(要插入的行数事先已知),
        # 则通过在mutex(轻量锁)的控制下获得所需数量的自动递增值来避免表级AUTO-NC锁,它只在分配过程的持续时间内保持,
        # 而不是直到语句完成。不使用表级AUTO-NC锁,除非AUTO-lNc锁由另一个事务保持。
        # 如果另一个事务保持AUTO-INc锁,则Simple inserts等待AUTO-lNC锁,如同它是一个bulk inserts。
        innodb_autoinc_lock_mode=1# 交错锁定模式
        # 从MySQL8.0开始,交错锁模式是默认设置。在这种锁定模式下,所有类INSERT语句都不会使用表级AUTO-INC锁,
        # 并且可以同时执行多个语句。这是最快和最可扩展的锁定模式,但是当使用基于语句的复制或恢复方案时,
        # 从二进制日志重播SQL语句时,这是不安全的。
        # 在此锁定模式下,自动递增值保证在所有并发执行的所有类型的inserti语句中是唯一且单调递增的。
        # 但是,由于多个语句可以同时生成数字(即,跨语句交叉编号),为任何给定语句插入的行生成的值可能不是连续的。
        # 如果执行的语句是simple inserts,其中要插入的行数已提前知道,除了Mixed-mode inserts之外,
        # 为单个语句生成的数字不会有间隙。然而,当执行bulk inserts时,在由任何给定语句分配的自动递增值中可能存在间隙。
        innodb_autoinc_lock_mode=2
        
      4. 元数据锁(MDL锁)

        MySQL 5.5引入了meta data lock,简称MDL锁,属于表锁范畴。MDL的作用是,保证读写的正确性。当对一个表做增删改查操作的时候,加MDL读锁,当要对表做结构变更操作的时候,加MDL写锁。

        ​ 读锁之间不互斥,因此你可以有多个线程同时对一张表增删改查。读写锁之间、写锁之间是互斥的,用来保证变更表结构操作的安全性,解决了DMLDDL操作之间的一致性问题。不需要显示使用,在访问一个表的时候会被自动加上。

    • InnoDB中的行锁

      ​ 行锁(ROW Lock)也称为记录锁,顾名思义,就是锁住某一行(某条记录row)。需要注意的是,MySQL服务器并没有实现行锁机制,行级锁只存在存储引擎层实现

      优点:锁定力度小,发生锁冲突概率低,可以实现的并发度高

      缺点:对于锁的开销比较大,加锁会比较慢,容易出现死锁情况。

      InnoDBMyISAM的最大不同有两点:支持事务(TRANSACTION)、采用了行级锁。

      1. 记录锁(Record Locks)

        ​ 记录所也就是仅仅把一条记录锁上,官方的类型名称为:LOCK_REC_NOT_GAP。记录锁是有S锁和X锁之分的,称之为**S型记录锁X型记录锁**。

        • 当一个事务获取了一条记录的S型记录锁后,其他事务也可以继续获取该记录的S型记录锁,但不可以继续获取X型记录锁。
        • 当一个事务获取了一条记录的X型记录锁后,其他事务既不可以继续获取该记录的S型锁,也不可以继续获取X型记录锁。
      2. 间隙锁(Gap Locks)

        MySQLREPEATABLE READ隔离级别下是可以解决幻读问题的,解决方案有两种,可以使用MVCC方案解决,也可以采用加锁方案解决。

        ​ 但是在使用加锁方案解决时有个大问题,就是事务在第一次执行读取操作时,那些幻影记录尚不存在,我们无法给这些幻影记录加上记录锁InnoDB提出了一种称之为Gap Locks的锁,官方的类型名称:LOCK_GAP,我们可以简称为gap锁。
        在这里插入图片描述

        ​ 图中id值为8的记录加了gap锁,意味着不允许别的事物在id值为8的记录前边的间隙插入新记录,其实就是id列的值(3, 8)这个区间的新纪录是不允许立即插入的。直到拥有这个gap锁的事务提交了之后,id列的值在区间(3, 8)中的新纪录才可以被插入。

        gap是锁的提出仅仅是为了防止插入幻影记录而提出的。虽然有共享gap锁和独占gap锁这样的说法,但是它们起到的作用是相同的。而且如果对一条记录加了gap锁(不论是共享gap锁还是独占gap锁),并不会限制其他事务对这条记录加记录锁或者继续加gap锁。

        ​ 注意,给一条记录加了gap锁只是不允许其他事务往这条记录前边的间隙插入新纪录,那对于最后一条记录之后的间隙,也就是student表中id值为20的记录之后的间隙该咋办呢?也就是说给哪条记录加gap锁才能阻止其他事务插入id值在(20, +∞)这个区间的新纪录呢?这时候我们在将数据页时介绍的两条伪记录派上用场了:

        • Infimum记录,表示该页面中最小的记录。
        • Supremum记录,表示该页面中最大的记录。
      3. 临键锁(Next-Key Locks)

        ​ 有时候我们既想锁住某条记录,又想阻止其他事务在该记录前边的间隙插入新纪录,所以InnoDB就提出了一种称之为Next-Key Lock的锁,官方的类型名称为:LOCK_ORDINARY,我们也可以简称为next-key锁。Next-Key Locks是在存储引擎innoDB、事务级别在可重复读的情况下使用的数据库锁,innoDB默认的锁就是Next-Key locks

        next-key锁的本质上就是一个记录锁和一个gap锁的合体,它既能保护该条记录,又能组织别的事务将新记录插入被保护记录前边的间隙

      4. 插入意向锁(Insert Intention Locks)

        ​ 我们说一个事务在插入一条记录时需要判断一下插入位置是不是被别的事务加了gap锁(next—key锁也包含 gap锁),如果有的话,插入操作需要等待,直到拥有gap锁的那个事务提交。但是InnoDB规定事务在等待的时候也需要在内存中生成一个锁结构,表明有事务想在某个间隙插入新记录,但是现在在等待。InnoDB就把这 种类型的锁命名为Insert Intention Locks,官方的类型名称为:LOCK_INSERT_INTENTION,我们称为插 入意向锁。插入意向锁是一种Gap锁,不是意向锁,在insert操作时产生。

        ​ 插入意向锁是在插入一条记录行前,INSERT操作产生的一种间隙锁。该锁用以表示插入意向,当多个事务在同一区间(gap)插入位置不同的多条数据时,事务之间不需要互相等待。总结来说,插入意向锁的特性可以分成两部分:

        1. 插入意向锁是一种特殊的间隙锁——间隙锁可以锁定开区间的部分记录。
        2. 插入意向锁之间互不排斥,所以即使多个事物在同一区间插入多条记录,只要记录本身(主键、唯一索引)不冲突,那么事务之间就不会出现冲突等待。

        注意:虽然插入意向锁中含有意向锁三个字,但是它并不属于意向锁而属于间隙锁,因为意向锁是表锁而插入意向锁是行锁

    • 页锁

      ​ 页锁就是在页的粒度上进行锁定,锁定的数据资源比行锁要多,因为一个页中可以有多个行记录。当我们使用页锁的时候,会出现数据浪费的现象,但这样的浪费最多也就是一个页上的数据行。页锁的开销介于表锁和行锁之间,会出现死锁。锁定粒度介于表锁和行锁之间,并发度一般

      ​ 每个层级的锁数量是有限制的,因为锁会占用内存空间,锁空间的大小是有限的。当某个层级的锁数量超过了这个层级的阈值时,就会进行锁升级。锁升级就是用更大粒度的锁替代多个更小粒度的锁。

  3. 从对待锁的态度划分:乐观锁、悲观锁

    ​ 从对待锁的态度来看锁的话,可以将锁分成乐观锁和悲观锁,从名字中也可以看出这两种锁是看待数据并发的思维方式。需要注意的是,乐观锁和悲观锁并不是锁,而是锁的设计思想

    • 悲观锁(Pessimistic Locking)

      ​ 悲观锁是一种思想,顾名思义,就是很悲观,对数据被其他事务的修改持保守态度,会通过数据库自身的锁机制来实现,从而保证数据操作的排他性。

      ​ 悲观锁总是假设最坏的情况,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会阻塞直到它拿到锁(共享资源每次只给一个线程使用,其它线程阻塞,用完后再把资源转让给其他线程)。

      ​ 注意:select ... for update语句执行过程中所有扫描的行都会被锁上,因此在MySQL中用悲观锁必须确定使用了索引,而不是全表扫描,否则将会把整个表锁住。

      ​ 悲观锁不是用的场景较多,它存在一些不足,因为悲观锁大多数情况下依靠数据库的锁机制来实现,以保证程序的并发访问性,同时这样对数据库性能开销影响也很大,特别是长事务而言,这样的开销往往无法承受,这时就需要乐观锁。

    • 乐观锁(Optimistic Locking)

      ​ 乐观锁认为对同一数据的并发操作不会总发生,属于小概率事件,不用每次都对数据上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,也就是不采用数据库自身的锁机制,而是通过程序来实现。在程序上,我们可以采用版本号机制或者**CAS机制**实现。乐观锁适用于多读的应用类型,这样可以提高吞吐量。

      1. 乐观锁的版本号机制

        ​ 在表中设计一个版本号version,第一次读的时候,会获取version字段的取值。然后对数据进行更新或删除操作时,会执行UPDATE ... SET version=version+1 WHERE version=version。此时如果已经有事务对这条数据进行了更改,修改就不会成功。

      2. 乐观锁的时间戳机制

        ​ 时间戳和版本号机制一样,也是在更新提交的时候,将当前数据的时间戳和更新之前取得的时间戳进行比较,如果两者一致则更新成功,否则就是版本冲突。

    • 两种锁的适用场景

      1. 乐观锁适合读操作多的场景,相对来说写的操作比较少。它的优点在于程序实现,不存在死锁问题,不过适用场景也会相对乐观,因为它阻止不了除了程序以外的数据库操作。
      2. 悲观锁适合写操作多的场景,因为写的操作具有排他性。采用悲观锁的方式,可以在数据库层面阻止其他事务对该数据的操作权限,防止读-写写-写的冲突。
        在这里插入图片描述
  4. 按加锁的方式划分:显示锁、隐式锁

    • 隐式锁

      ​ 一个事务在执行INSERT操作时,如果即将插入的间隙已经被其他事务加了gap锁,那么本次INSERT操作会阻塞,并且当前事务会在该间隙上加一个插入意向锁,否则一般情况下INSERT操作是不加锁的。那如果一个事务首先插入了一条记录(此时并没有在内存生产与该记录关联的锁结构),然后另一个事务:

      1. 立即使用SELECT ... LOCK IN SHARE MODE语句读取这条记录,也就是要获取这条记录的S锁,或者使用SELECT ... FOR UPDATE语句读取这条记录,也就是要获取这条记录的X锁,怎么办?

        如果允许这种情况的发生,那么可能产生脏读问题。

      2. 立即修改这条记录,也就是要获取这条记录的X锁,怎么办?

        如果允许这种情况的发生,那么可能产生脏写问题

      这时候我们前边提过的**事务id**又要起作用了。我们把聚簇索引和二级索引中的记录分开看一下:

      1. 情景一:对于聚簇索引记录来说,有一个trx_id隐藏列,该隐藏列记录着最后改动该记录的事务id。那么如果在当前事务中新插入一条聚簇索引记录后,该记录的trx_id隐藏列代表的的就是当前事务的事务id,如果其他事务此时想对该记录添加S锁或者X锁时,首先会看一下该记录的trx_id隐藏列代表的事务是否是当前的活跃事务,如果是的话,那么就帮助当前事务创建一个X锁(也就是为当前事务创建一个锁结构,is_waiting属性是false),然后自己进入等待状态(也就是为自己也创建一个锁结构,is_waiting属性是true)。
      2. 情景二:对于二级索引记录来说,本身并没有trx_id隐藏列,但是在二级索引页面的Page Header部分有一个PAGE_MAX_TRX_ID属性,该属性代表对该页面做改动的最大的事务id,如果PAGE_MAX_TRX_ID属性值小于当前最小的活跃事务id,那么说明对该页面做修改的事务都已经提交了,否则就需要在页面中定位到对应的二级索引记录,然后回表找到它对应的聚簇索引记录,然后再重复情景一的做法。

      即:一个事务对新插入的记录可以不显式的加锁(生成一个锁结构),但是由于事务id的存在,相当于加了一个隐式锁。别的事务在对这条记录加S锁或者X锁时,由于隐式锁的存在,会先帮助当前事务生成一个锁结构,然后自己再生成一个锁结构后进入等待状态。隐式锁是一种延迟加锁的机制,从而来减少加锁的数量。隐式锁在实际内存对象中并不含有这个锁信息。只有当产生锁等待时,隐式锁转化为显式锁。

      # session 1
      begin;
      insert into student values(34, '张三', '二班');# session 2
      begin;
      select * from student lock in share mode; # 执行完,当前事务被阻塞select * from performance_schema.data_lock_waits\G
      
      1. InnoDB的每条记录中都一个隐含的trx_id字段,这个字段存在于聚簇索引的B+Tree中。
      2. 在操作一条记录前,首先根据记录中的trx_id检查该事务是否是活动的事务(未提交或回滚)。如果是活动的事物,首先将隐式锁转换为显示锁(就是为该事务添加一个锁)。
      3. 检查是否有锁冲突,如果有冲突,创建锁,并设置为waiting状态。如果没有冲突不加锁,跳到步骤5。
      4. 等待加锁成功,被唤醒,或者超时。
      5. 写数据,并将自己的trx_id写入trx_id字段。
    • 显示锁

      通过特定的语句进行加锁,我们一般称之为显示加锁。

  5. 其他锁:全局锁

    ​ 全局锁就是对整个数据库实例加锁。当你需要让整个库处于只读状态的时候,可以使用这个命令,之后其他线程的以下语句会被阻塞,数据更新语句(数据的增删改)、数据定义语句(包括建表、修改表结构等)和更新类事务的提交语句。全局锁的典型使用场景是:做全库逻辑备份

    # 全局锁的命令
    Flush tables with read lock;
    
  6. 其他锁:死锁

    • 概念

      ​ 两个事务都持有对方需要的锁,并且在等待对方释放,并且双方都不会释放自己的锁。

      # 事务1
      update account set balance = balance - 100 where name = 'A';
      update account set balance = balance + 100 where name = 'B';# 事务2
      update account set balance = balance - 100 where name = 'B';
      update account set balance = balance + 100 where name = 'A';
      
    • 产生死锁的必要条件

      1. 两个或者两个以上事务。
      2. 每个事务都已经持有锁并且申请新的锁。
      3. 锁资源同时只能被同一个事物持有或者不兼容。
      4. 事务之间因为持有锁和申请锁导致彼此循环等待。
    • 如何处理死锁

      1. 方式一:等待,直到超时innodb_lock_wait_timeout=50s

        ​ 即当两个事务互相等地时,当一个事务等待时间超过设置的阈值时,就将其回滚,另外事务继续进行。这种方法简单有效,在innodb中,参数innodb_lock_wait_timeout用来设置超时时间。

        ​ 缺点:对于在线服务来说,这个等待时间往往是无法接受的。那将此值修改短一些,那样会误伤到普通的锁等待。

      2. 方式二:使用死锁检测进行死锁处理

        innodb还提供了wait-for graph算法来主动进行死锁检测,每当加锁请求无法立即满足需要进入等待时,wait-for graph算法都会被触发。

        ​ 这是一种较为主动的死锁检测机制,要求数据库保存锁的信息链表事物等待链表两部分信息。
        在这里插入图片描述

        基于这两个信息,可以绘制wait-for graph(等待图)
        在这里插入图片描述

        ​ 一旦检测到回路、有死锁,这时候InnoDB存储引擎会选择回滚undo量最小的事务,让其他事务继续执行(innodb_deadlock_detect=on表示开启这个逻辑)。

        ​ 缺点:每个新的被阻塞的线程,都要判断是不是由于自己的加入导致了死锁,这个操作时间复杂度是O(n)

        1. 方式一:关闭死锁检测,但意味着可能会出现大量的超时,会导致业务有损。
        2. 方式二:控制并发访问的数量。
        3. 方式三:可以考虑通过将一行改成逻辑上的多行来减少锁冲突。
    • 如何避免死锁

      1. 合理设计索引,是业务SQL尽可能通过索引定位更少的行,减少锁竞争。
      2. 调整业务逻辑SQL执行顺序,避免update/delete长时间持有锁的SQL在事务前面。
      3. 避免大事务,尽量将大事务拆成多个小事务来处理,小事务缩短锁定资源的时间,发生锁冲突的几率也更小。
      4. 在并发比较高的系统中,不要显式加锁,特别是是在事务里显式加锁。如果是在事务里运行了start transaction或设置了autocommit等于0,么就会锁定所查找到的记录。
      5. 降低隔离级别。如果业务允许,将隔离级别调低也是较好的选择。

33.4:锁的内存结构

InnoDB存储引擎中的锁结构如下:
在这里插入图片描述

  1. 锁所在的事务信息

    ​ 不论是表锁还是行锁,都是在事务执行过程中生成的,哪个事物生成了这个锁结构,这里就记录这个事物的信息。此锁所在的事务信息在内存结构中只是一个指针,通过指针可以找到内存中关于该事务的更多信息。

  2. 索引信息

    ​ 对于行锁来说,需要记录一下加锁的记录是属于哪个索引的。

  3. 表锁、行锁信息

    • 表锁:记载着是对哪个表加的锁,还有其他的一些信息。

    • 行锁:

      1. Space ID:记录所在表空间。

      2. Page Number:记录所在页号。

      3. n_bits

        ​ 对于行锁来说,一条记录就对应着一个比特位,一个页面中包含很多记录,用不同的比特位来区分到底是哪一条记录加了锁。为此在行锁结构的末尾放置了一堆比特位,这个n_bits属性代表使用了多少比特位。

  4. type_mode

    这是一个32位的数,被分成了lock_modelock_typerec_lock_type三个部分:
    在这里插入图片描述

    • 锁的模式(lock_mode),占用低4位,可选的值如下:

      1. LOCK_IS(十进制的0):表示共享意向锁,也就是IS锁。
      2. LOCK_IX(十进制的1):表示独占意向锁,也就是IX锁。
      3. L0CK_S(十进制的2):表示共享锁,也就是S锁。
      4. L0CK_X(十进制的3):表示独占锁,也就是X锁。
      5. LOCK_AUTO_INC(十进制的4):表示AUTO-INC锁。

      InnoDB存储引擎中,LOCK_ISLOCK_IXLOCK_AUTO_INC都算是表级锁的模式,LOCK_SLOCK_X既可以算是表级锁的模式,也可以是行级锁的模式。

    • 锁的类型(lock_type),占用第5~8位,不过现阶段只有第5位和第6位被使用:

      1. LOCK_TABLE(十进制的16),也就是当第5个比特位置为1时,表示表级锁。
      2. LOCK_REC(十进制的32),也就是当第6个比特位置为1时,表示行级锁。
    • 行锁的具体类型(rec_lock_type),使用其余的位来表示。只有在lock_type的值为LOCK_REC时,也就是只有在该锁为行级锁时,才会被细分为更多的类型:

      1. LOCK_ORDINARY(十进制的0):表示next-key锁。
      2. L0CK_GAP(十进制的512):也就是当第10个比特位置为1时,表示gap锁。
      3. LOCK_REC_NOT_GAP(十进制的1024):也就是当第11个比特位置为1时,表示正经记录锁
      4. LOCK_INSERT._INTENTION(十进制的2048):也就是当第12个比特位置为1时,表示插入意向锁。其他的类型:还有一些不常用的类型我们就不多说了。
    • is_waiting属性

      LOCK_WAIT(十进制的256):当第9个比特位置为1时,表示is_waitingtrue,也就是当前事务尚未获取到锁,处在等待状态,党政比特位为0时,表示is_waitingfalse,也就是当前事务获取锁成功。

  5. 其他信息

    ​ 为了更好的管理系统运行过程中生成的各种锁结构而设计了各种哈希表和链表。

  6. 一堆比特位

    ​ 如果是行锁结构的话,在该结构末尾还放置了一堆比特位,比特位的数量是由上边提到的n_bits属性表示的InnoDB数据页中的每条记录在记录头信息中都包含一个heap_no属性,伪记录Infimumheap_no值为0,Supremumheap_no值为1,之后每插入一条记录,heap_no值就增1。锁结构最后的一堆比特位就对应着一个页面中的记录,一个比特位映射一个heap_no,即一个比特位映射到页内的一条记录。

33.5:锁监控

# 分析系统上的行锁的争夺情况
show status like 'innodb_row_lock%';# innodb_row_lock_current_waits: 当前正在等待锁定的数量
# innodb_row_lock_time: 从系统启动到现在锁定总时间长度
# innodb_row_lock_time_avg: 每次等待所花平均时间
# innodb_row_lock_time_max: 从系统启动到现在等待最常的一次所花的时间
# innodb_row_lock_waits: 系统启动后到现在总共等待的次数

​ 尤其是当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手指定优化计划。

其他监控方法:
MySQL把事务和锁的信息记录在了information-schema库中,涉及到的三张表分别是INNODB_TRXINNODB_LOCKSINNODB_LOCK_WAITS

MySQL5.7及之前,可以通过information_schema.INNODB_LOCKS查看事务的锁情况,但只能看到阻塞事务的锁如果事务并未被阻塞,则在该表中看不到该事务的锁情况。

MySQL8.0删除了information_schema.INNODB_LOCKS,添加了performance_schema.data_locks,可以通过performance_schema.data_locks查看事务的锁情况,和MySQL5.7及之前不同,performance_schema.data_locks不但可以看到阻塞该事务的锁,还可以看到该事务所持有的锁。同时,information_schema.INNODB_LOCK_WAITS也被performance_schema.data_lock_waits所代替。

这篇关于第三十三章:锁的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/244947

相关文章

自然语言处理:第三十三章FILCO:过滤内容的RAG

文章链接: [2311.08377] Learning to Filter Context for Retrieval-Augmented Generation (arxiv.org) 项目地址: zorazrw/filco: [Preprint] Learning to Filter Context for Retrieval-Augmented Generaton (github.com)

记录_第三十三章uboot移植

1、如何通将NXP官方的uboot移植移植到正点原子的开发板上 注: NXP:恩智浦半导体公司, 2006年创立 前身为荷兰飞利浦公司于1953年成立的半导体事业部 2015年收购飞思卡尔半导体(由摩托罗拉创立) 成为全球前十大非存储类半导体公司 及全球最大的汽车半导体供应商 2019年 福布斯全球数字经济100强榜位列78位 2020年 福布斯全球企业2000强榜第1025位 全球汽车零部件

爬虫工作量由小到大的思维转变---<第三十三章 Scrapy Redis 23年8月5日后会遇到的bug)>

前言: 收到回复评论说,按照我之前文章写的: 爬虫工作量由小到大的思维转变---<第三十一章 Scrapy Redis 初启动/conn说明书)>-CSDN博客 在启动scrapy-redis后,往redis丢入url网址的时候遇到: TypeError: ExecutionEngine.crawl() got an unexpected keyword argument 'spider

第三十三章 控制到 XML 模式的映射 - 其他支持 XML 的类到 XML 类型的映射

文章目录 第三十三章 控制到 XML 模式的映射 - 其他支持 XML 的类到 XML 类型的映射其他支持 `XML` 的类到 `XML` 类型的映射指定类型的命名空间抑制类型 `QName` 的命名空间前缀 第三十三章 控制到 XML 模式的映射 - 其他支持 XML 的类到 XML 类型的映射 其他支持 XML 的类到 XML 类型的映射 对于支持 XML 的类或基于支持

第三十三章 控制到 XML 模式的映射 - 其他支持 XML 的类到 XML 类型的映射

文章目录 第三十三章 控制到 XML 模式的映射 - 其他支持 XML 的类到 XML 类型的映射其他支持 `XML` 的类到 `XML` 类型的映射指定类型的命名空间抑制类型 `QName` 的命名空间前缀 第三十三章 控制到 XML 模式的映射 - 其他支持 XML 的类到 XML 类型的映射 其他支持 XML 的类到 XML 类型的映射 对于支持 XML 的类或基于支持