亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

MySQL數據庫中使用 limit分頁出現大偏移量慢如何解決

發布時間:2020-11-18 16:27:55 來源:億速云 閱讀:255 作者:Leah 欄目:開發技術

MySQL數據庫中使用 limit分頁出現大偏移量慢如何解決?相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

在 MySQL 中通常我們使用 limit 來完成頁面上的分頁功能,但是當數據量達到一個很大的值之后,越往后翻頁,接口的響應速度就越慢。

本文主要討論 limit 分頁大偏移量慢的原因及優化方案,為了模擬這種情況,下面首先介紹表結構和執行的 SQL。

場景模擬

建表語句

user 表的結構比較簡單,id、sex 和 name,為了讓 SQL 的執行時間變化更加明顯,這里有9個姓名列。

CREATE TABLE `user` (
 `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '主鍵',
 `sex` tinyint(4) NULL DEFAULT NULL COMMENT '性別 0-男 1-女',
 `name1` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name2` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name3` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name4` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name5` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name6` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name7` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name8` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name9` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 PRIMARY KEY (`id`) USING BTREE,
 INDEX `sex`(`sex`) USING BTREE
) ENGINE = InnoDB AUTO_INCREMENT = 9000001 CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Dynamic;

數據填充

這里建立了一個存儲過程來進行數據的填充,一共9000000條數據,執行完函數后再執行一句SQL,修改性別字段。

ps:這個函數執行的挺久的,我運行了617.284秒。

CREATE DEFINER=`root`@`localhost` PROCEDURE `data`()
begin 
 declare i int; 
 set i=1; 
 while(i<=9000000)do 
  insert into user values(i,0,i,i,i,i,i,i,i,i,i);
  set i=i+1; 
 end while;
end

-- 將id為偶數的user設置性別為1-女
update user set sex=1 where id%2=0;

SQL與執行時間

SQL執行時間
select * from user where sex = 1 limit 100, 10;OK, Time: 0.005000s
select * from user where sex = 1 limit 1000, 10;OK, Time: 0.007000s
select * from user where sex = 1 limit 10000, 10;OK, Time: 0.016000s
select * from user where sex = 1 limit 100000, 10;OK, Time: 0.169000s
select * from user where sex = 1 limit 1000000, 10;OK, Time: 5.892000s
select * from user where sex = 1 limit 10000000, 10;OK, Time: 33.465000s

可以看到,limit 的偏移量越大,執行時間越長。

原因分析

首先來分析一下這句 SQL 執行的過程,就拿上面表格中的第一行來舉例。

由于 sex 列是索引列,MySQL會走 sex 這棵索引樹,命中 sex=1 的數據。

然后又由于非聚簇索引中存儲的是主鍵 id 的值,且查詢語句要求查詢所有列,所以這里會發生一個回表的情況,在命中 sex 索引樹中值為1的數據后,拿著它葉子節點上的值也就是主鍵 id 的值去主鍵索引樹上查詢這一行其他列(name、sex)的值,最后返回到結果集中,這樣第一行數據就查詢成功了。

最后這句 SQL 要求limit 100, 10,也就是查詢第101到110個數據,但是 MySQL 會查詢前110行,然后將前100行拋棄,最后結果集中就只剩下了第101到110行,執行結束。

小結一下,在上述的執行過程中,造成 limit 大偏移量執行時間變久的原因有:

  • 查詢所有列導致回表
  • limit a, b會查詢前a+b條數據,然后丟棄前a條數據
     

綜合上述兩個原因,MySQL 花費了大量時間在回表上,而其中a次回表的結果又不會出現在結果集中,這才導致查詢時間變得越來越長。

優化方案

覆蓋索引

既然無效的回表是導致查詢變慢的主要原因,那么優化方案就主要從減少回表次數方面入手,假設在limit a, b中我們首先得到了a+1到a+b條數據的id,然后再進行回表獲取其他列數據,那么就減少了a次回表操作,速度肯定會快上不少。

這里就涉及到覆蓋索引了,所謂的覆蓋索引就是從非主聚簇索引中就能查到的想要數據,而不需要通過回表從主鍵索引中查詢其他列,能夠顯著提升性能。

基于這樣的思路,優化方案就是先查詢得到主鍵id,然后再根據主鍵id查詢其他列數據,優化后的 SQL 以及執行時間如下表。

優化后的 SQL執行時間
select * from user a join (select id from user where sex = 1 limit 100, 10) b on a.id=b.id;OK, Time: 0.000000s
select * from user a join (select id from user where sex = 1 limit 1000, 10) b on a.id=b.id;OK, Time: 0.00000s
select * from user a join (select id from user where sex = 1 limit 10000, 10) b on a.id=b.id;OK, Time: 0.002000s
select * from user a join (select id from user where sex = 1 limit 100000, 10) b on a.id=b.id;OK, Time: 0.015000s
select * from user a join (select id from user where sex = 1 limit 1000000, 10) b on a.id=b.id;OK, Time: 0.151000s
select * from user a join (select id from user where sex = 1 limit 10000000, 10) b on a.id=b.id;OK, Time: 1.161000s

果然,執行效率得到了顯著提升。

條件過濾

當然還有一種有缺陷的方法是基于排序做條件過濾。

比如像上面的示例 user 表,我要使用 limit 分頁得到1000001到1000010條數據,可以這樣寫 SQL:

select * from user where sex = 1 and id > (select id from user where sex = 1 limit 1000000, 1) limit 10;

但是使用這樣的方式優化是有條件的:主鍵id必須是有序的。在有序的條件下,也可以使用比如創建時間等其他字段來代替主鍵id,但是前提是這個字段是建立了索引的。

總之,使用條件過濾的方式來優化 limit 是有諸多限制的,一般還是推薦使用覆蓋索引的方式來優化。

看完上述內容,你們掌握MySQL數據庫中使用 limit分頁出現大偏移量慢如何解決的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

夏邑县| 松江区| 邛崃市| 独山县| 蒙城县| 亳州市| 石狮市| 北宁市| 东港市| 英吉沙县| 泾阳县| 龙里县| 淄博市| 绥中县| 科技| 唐河县| 乌鲁木齐县| 临清市| 吉木乃县| 固镇县| 腾冲县| 民丰县| 虹口区| 神木县| 阿勒泰市| 阳泉市| 绥芬河市| 胶南市| 扬中市| 根河市| 柳河县| 元江| 开江县| 竹山县| 交城县| 吉林市| 迭部县| 鹰潭市| 乌兰浩特市| 大石桥市| 大邑县|