深入理解MySQL慢查询优化(3) -- 案例实操

2024-09-03 02:20

本文主要是介绍深入理解MySQL慢查询优化(3) -- 案例实操,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

经过前面内容的理解,我们以及了解了MySQL的优化策略,以及SQL语句的执行流程,接下来我们通过一个问题来学习,如何优化SQL

1. 如何构造一条慢SQL

前面我们介绍了,数据库实现高效查询的核心原则是:增量查询和索引加速,其中索引加速很大程度上也是在为增量查询服务。

要构造一条慢SQL,我们就可以从破坏增量查询入手:

1.1 利用join制造大量计算

select * from employees join salaries on employees.emp_no = salaries.emp_no 
limit 10;

优化思路:给内层表的join列(salaries.emp_no)加上索引,避免全表扫描内层表

1.2 添加where条件

select * from employees join salaries on salaries.emp_no = employees.emp_no 
where salaries.salary > 60000
limit 10;

优化思路:在salaries.salary和employees.emp_no上各建一个索引,实际执行的时候,MySQL就可以先利用salaries.salary上的索引,定位到大于60000的数据,再把salaries作为外层表和employees表join,同时employees表也可以使用 employees.emp_no 定位到需要的数据,这样就消除了where的难度。

1.3 添加多个where条件

select * from employees join salaries on salaries.emp_no = employees.emp_no 
where salaries.salary > 60000 and salaries.from_date > '1992-07-12'
limit 10;

优化思路:这里where条件都是同一个表的,可以创建salary和from_date的联合索引,查询时MySQL就可以更具salary和from_date上的联合索引找出 salary > 60000并且from_date > '1992-07-01' 的数据,然后再把salaries作为外层表和内存进行join;如果where条件过多或者并非同一个表的字段,则可以对每个where条件的字段都创建一个索引,使用实际效果好的那一个索引,不推荐使用多个不同的索引共同筛选,因为回表操作的开销无法忽略

1.4 使用left join限制join的顺序

select * from employees left join salaries on salaries.emp_no = employees.emp_no 
where salaries.salary > 60000and salaries.from_date > '1992-07-12'
limit 10;

优化思路这里使用了left join看似强行把employees指定为了外层表,但是,left join 仅比join多了内层表为null的数据,但上述SQL语句中,存在where条件 salaries.salary > 60000 ,null > 60000一定为false,于是这里的left join就和join每什么区别了,MySQL就会把这个left join优化为join,我们就可以继续使用上面第3点的优化思路

1.5 引入order by 破坏增量策略

select * from employees join salaries on salaries.emp_no = employees.emp_no 
where salaries.salary > 60000
order by salaries.from_date
limit 10;

这里的where和order by使用了不同的列,会涉及索引的选择问题:

  • 如果where筛选效果好,那么就使用where字段上的索引,先筛选得出结果再排序,比如只有几百条记录符合条件,那对几百条数据做个排序开销也不大。
  • 如果where筛选效果不好,就使用order by字段上的索引,那么就可以继续使用增量策略,按顺序查找符合条件的数据,收集到10条就返回
  • 如果where筛选效果不好不坏,并且表的数据量巨大,如果先筛选后排序,筛选后的数据量多,让 sort buffer放不下,排序开销就足够大;如果使用order by上的索引顺序搜索,搜索的很多数据都不符合where条件,需要大量搜索才能凑出10条数据,至此我们成功构造出了一条慢SQL

通过上面的分析我们可以看到,数据库的增量略是相当成功的, 想制造一条慢SQL是并不容易的。

这里再次提醒一点,MySQL 数据库通常不适合全量扫描的场景,特别是当表的数据量非常大时。全量扫描(即全表扫描)会导致高 I/O 负载和长时间的查询执行,这对性能和资源消耗都有较大影响,所以使用MySQL通常会使用分页查询。如果业务需要大量的全量扫描则可以考虑使用其他数据库,例如NoSQL。同时MySQL也不适合统计类的查询,比如 sum/avg等,这类查询天然和增量策略冲突

2. 案例练习 

相信有了前面的学习,我们已经对如何分析并优化一条SQL语句有了较深的了解,下面我们尝试分析几个案例:

2.1 案例一

-- cost 364ms
SELECT * FROM employees JOIN salaries ON employees.emp_no = salaries.emp_no AND salaries.from_date = '1992-08-04' 
WHERE employees.emp_no > 10005 AND salaries.salary > 70000 
ORDER BY salaries.salary 
LIMIT 10;  -- employees: PRIMARY KEY(emp_no)
-- salaries: PRIMARY KEY(emp_no, from_date)-> Limit: 10 row(s)-> Sort: salaries.salary, limit input to 10 row(s) per chunk-> Stream results  (cost=95578 rows=74834)-> Nested loop inner join  (cost=95578 rows=74834)-> Filter: (employees.emp_no > 10005)  (cost=29971 rows=149667)-> Index range scan on employees using PRIMARY over (10005 < emp_no)  (cost=29971 rows=149667)-> Filter: (salaries.salary > 70000)  (cost=0.338 rows=0.5)-> Single-row index lookup on salaries using PRIMARY (emp_no=employees.emp_no, from_date=DATE'1992-08-04')  (cost=0.338 rows=1)

这里的执行策略是:

  • 1. 通过employees.emp_no上的索引查询 10005 < emp_no,然后筛选出 10005 < emp_no的数据
  • 2. 对外层表的每条数据通过salaries.emp_no和salaries.from_data上的联合索引 查符合条件emp_no=employees.emp_no, from_date=DATE'1992-08-04'的数据,然后筛选出 salaries.salary > 70000的数据
  • 3. 把内外层表的数据做连接操作
  • 4. 匹配完所有数据后,把结果集按照salaries.salary字段进行排序,然后返回前10条

优化思路:上面执行策略显然没有使用增量策略,是匹配完所有的数据后再进行排序后返回,于是我们可以在salaries.salary字段上添加索引,使查询时,可以把salaries作为外层表进行查询,就可继续使用增量策略,查询到10条后返回

优化后的执行策略:

-> Limit: 10 row(s)  (cost=443853 rows=10)-> Nested loop inner join  (cost=443853 rows=1.42e+6)-> Index range scan on salaries using idx_salary over (70000 < salary), with index condition: ((salaries.from_date = DATE'1992-08-04') and (salaries.emp_no > 10005) and (salaries.salary > 70000)) (cost=284192 rows=1.42e+6)-> Single-row index lookup on employees using PRIMARY (emp_no=salaries.emp_no)  (cost=0.25 rows=1)

这里的执行策略是:

  • 1. 根据索引 salaries.salary字段上的索引查询 70000 < salary的数据,然后更具条件(salaries.from_date = DATE'1992-08-04') and (salaries.emp_no > 10005) and (salaries.salary > 70000))进行筛选
  • 2. 根据employees.emp_no 上的索引,查找符合emp_no=salaries.emp_no 的数据
  • 3. 进行join操作,当收集到10条数据后会直接返回

 2.2 案例二

-- 耗时4200ms
select * from employeesleft join salaries on employees.emp_no = salaries.emp_noleft join dept_emp on dept_emp.emp_no = employees.emp_no 
where dept_emp.dept_no not in (select dept_no from departments where dept_name > 'AAA')
order by employees.hire_date 
limit 10;
-- employees: PRIMARY KEY (emp_no)
-- salaries: PRIMARY KEY (emp_no, from_date)
-- dept_emp: PRIMARY KEY (emp_no,dept_no)
-- departments: UNIQUE KEY (dept_name)

尝试使用增量策略 -- 4500ms 

 给 employees.hire_date加索引:

-> Limit: 10 row(s)  (cost=851920 rows=10)-> Filter: <in_optimizer>(dept_emp.dept_no,dept_emp.dept_no in (select #2) is false)  (cost=851920 rows=10.4)-> Nested loop left join  (cost=851920 rows=10.4)-> Nested loop left join  (cost=135044 rows=9.42)-> Index scan on employees using idx_hire_date  (cost=776e-6 rows=1)-> Index lookup on salaries using PRIMARY (emp_no=employees.emp_no)  (cost=0.451 rows=9.42)-> Index lookup on dept_emp using PRIMARY (emp_no=employees.emp_no)  (cost=0.254 rows=1.1)-> Select #2 (subquery in condition; run only once)-> Filter: ((dept_emp.dept_no = `<materialized_subquery>`.dept_no))  (cost=2.9..2.9 rows=1)-> Limit: 1 row(s)  (cost=2.8..2.8 rows=1)-> Index lookup on <materialized_subquery> using <auto_distinct_key> (dept_no=dept_emp.dept_no)-> Materialize with deduplication  (cost=2.8..2.8 rows=9)-> Filter: (departments.dept_name > 'AAA')  (cost=1.9 rows=9)-> Covering index scan on departments using dept_name  (cost=1.9 rows=9)

可以看到索引生效了,但是耗时确没减少还略有增加,这是因为,符合条件的数据,没有10条,这种情况下,增量和全量没区别,走索引还会增加回表的开销所以,走索引不一定快,需要具体分析执行逻辑。

拆分sql 

在上面的sql的执行策略中,对于每个可能的结果都是最后判断是否满足,not in,并且所有满足条件的数据又不超过10条,就会大致大量的数据都会去使用dept_emp.dept_no和not in中的值比较,又因为dept_emp在第三层循环,所以回导致同一个dept_emp.dept_no会去not in中比较很多次,这里我们可以通过把dept_emp当作外层表,先满足 not in 条件再向后匹配。当not in中包含的是具体的常量值,MySQL通常就会在查询中首先处理这些常量值

-- 耗时2ms,返回 'd009','d005','d002','d003','d001','d004','d006','d008','d007'
select dept_no from departments where dept_name > 'AAA';-- 把第一步返回的结果直接做为第二步查询的条件,耗时3ms
select * from employeesleft join salaries on employees.emp_no = salaries.emp_noleft join dept_emp on dept_emp.emp_no = employees.emp_no 
where dept_emp.dept_no not in ('d009','d005','d002','d003','d001','d004','d006','d008','d007')
order by employees.hire_date 
limit 10;
-- employees: PRIMARY KEY (emp_no)
-- salaries: PRIMARY KEY (emp_no, from_date)
-- dept_emp: PRIMARY KEY (emp_no,dept_no)    
-- departments: UNIQUE KEY (dept_name)

3. 常用优化技巧

  • 1. 添加合适的索引:尽量保证order by,join,group by,where有合适的索引可以用
  • 2. 在列上调用函数或者做计算会导致索引用不了:
    -- 列上做计算,耗时400ms
    select * from salaries where emp_no - 10 = 11111;
    -- where条件值上做计算,耗时3ms
    select * from salaries where emp_no = 11121;
  • 3. 使用limit限制返回条数:有利于发挥增量查询的优势
  • 4. 避免使用select *,而是明确列出实际需要的列:减少MySQL需要抓取的列,提升性能;有可能消除回表的开销 如果查询走了二级索引,用select * 必须回表;有时候,实际需要的列,索引上都有,就可以节省掉回表的开销

这篇关于深入理解MySQL慢查询优化(3) -- 案例实操的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1131746

相关文章

Vue3 的 shallowRef 和 shallowReactive:优化性能

大家对 Vue3 的 ref 和 reactive 都很熟悉,那么对 shallowRef 和 shallowReactive 是否了解呢? 在编程和数据结构中,“shallow”(浅层)通常指对数据结构的最外层进行操作,而不递归地处理其内部或嵌套的数据。这种处理方式关注的是数据结构的第一层属性或元素,而忽略更深层次的嵌套内容。 1. 浅层与深层的对比 1.1 浅层(Shallow) 定义

SQL中的外键约束

外键约束用于表示两张表中的指标连接关系。外键约束的作用主要有以下三点: 1.确保子表中的某个字段(外键)只能引用父表中的有效记录2.主表中的列被删除时,子表中的关联列也会被删除3.主表中的列更新时,子表中的关联元素也会被更新 子表中的元素指向主表 以下是一个外键约束的实例展示

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

如何去写一手好SQL

MySQL性能 最大数据量 抛开数据量和并发数,谈性能都是耍流氓。MySQL没有限制单表最大记录数,它取决于操作系统对文件大小的限制。 《阿里巴巴Java开发手册》提出单表行数超过500万行或者单表容量超过2GB,才推荐分库分表。性能由综合因素决定,抛开业务复杂度,影响程度依次是硬件配置、MySQL配置、数据表设计、索引优化。500万这个值仅供参考,并非铁律。 博主曾经操作过超过4亿行数据

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

认识、理解、分类——acm之搜索

普通搜索方法有两种:1、广度优先搜索;2、深度优先搜索; 更多搜索方法: 3、双向广度优先搜索; 4、启发式搜索(包括A*算法等); 搜索通常会用到的知识点:状态压缩(位压缩,利用hash思想压缩)。

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于