本文主要是介绍大数据量级关系型数据库分页优化方案,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1.缘起~
相信大多程序员在经历的工作中都会遇到 大数据表(mysql)的分页慢查询问题。在一家b2b做院线与影院系统时,单表影片以及单表订单量两千万+(沉淀了两年的数据)。在当时现有的技术架构上做查询分页优化十分艰难。下面说说 当时的优化经历以及尝试的方案。补充说明下架构实现方面的手段。
2.为什么大数据表的分页越往后越慢?
究其原因 要从根源说起,mysql 分页通常使用的是limit 分页那么下面分析下他的分页原理。我们可以通过explain 查看如下情况的分页sql 执行计划:
偏移量(limit 偏移量 每页显示条数)
2.1 偏移量: 1000 + 10
2.2 偏移量: 1W + 10
2.3 偏移量: 100W + 10
2.4 偏移量: 400W + 10
2.5 偏移量: 1000W + 10
综上你会发现:执行时间随着数据的增加而增加指数增长。
查询表数据千万级时,越往后分页查询越慢。比如查询1000W + 10 页数据时,mysql 会扫描1000w + 10 条数据然后丢弃前1000w 条数据。慢就慢在扫表1000w上。所以我们只要控制查询扫描的行数就可以提高查询速度了。怎么控制扫描的行数呢?
3.解决方案:
当时因为架构设计上 我们数据库表ID是 自增所以有序,而且根产品有约定好 可以允许 分页有误差,也就是 即便ID不连续了 那么业务上也是可以容忍的。--- 有容奶大。。。。。
<这篇关于大数据量级关系型数据库分页优化方案的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!