为什么mysql最好不要只用limit做分页查询?
在项目中遇到的真实问题,以及我的解决方案,部分数据做了脱敏处理。
问题
最近在做项目时需要写sql
做单表查询,每次查出来的数据有几百万甚至上千万条,公司用的数据库是MySQL5.7
,做了分库分表,部分数据库设置了查询超时时间,比如查询超过15s
直接报超时错误,如下图:
可以通过show variables like 'max_statement_time';
命令查看数据库超时时间(单位:毫秒):
方案1
尝试使用索引加速sql
,从下图可以看到该sql
已经走了主键索引,但还是需要扫描150万行
,无法从这方面进行优化。
方案2
尝试使用limit语句
进行分页查询,语句为:
SELECT * FROM table WHERE user_id = 123456789 limit 0, 300000;
像这样每次查30万条
肯定就不会超时了,但这会引出另一个问题--查询耗时与起始位置成正比
,如下图:
第二条语句实际上查了60w条
记录,不过把前30w条
丢弃了,只返回后30w条
,所以耗时会递增,最终仍会超时。
方案3
使用指定主键范围的分页查询,主要思想是将条件语句改为如下形式(其中id
为自增主键):
WHERE user_id = 123456789 AND id > 0 LIMIT 300000;
WHERE user_id = 123456789 AND id > (上次查询结果中最后一条记录的id值) LIMIT 300000;
也可以将上述语句简化成如下形式(注意:带了子查询会变慢):
WHERE user_id = 123456789 AND id >= (SELECT id FROM table LIMIT 300000, 1) limit 300000;
每次查询只需要修改子查询limit语句
的起始位置即可,但我发现表中并没有自增主键id
这个字段,表内主键是fs_id
,而且是无序的。
这个方案还是不行,组内高工都感觉无解了。
方案4
既然fs_id
是无序的,那么就给它排序吧,加了个ORDER BY fs_id
,最终解决方案如下:
WHERE user_id = 123456789 AND fs_id > 0 ORDER BY fs_id LIMIT 300000;
WHERE user_id = 123456789 AND fs_id > (上次查询结果中最后一条记录的id值) ORDER BY fs_id LIMIT 300000;
效果如下图:
查询时间非常稳定,每条查询的fs_id
都大于上次查询结果中最后一条记录的fs_id
值。正常查30w条
需要3.88s
,排序后查30w条
需要6.48s
,确实慢了许多,但总算能把问题解决了。目前代码还在线上跑着哈哈,如果有更好的解决方案可以在评论区讨论哟。
作者:我要出去乱说
来源:juejin.cn/post/7209612932366270519
来源:juejin.cn/post/7209612932366270519