MySQL調優(yōu)之SQL查詢深度分頁問題
一、問題引入
例如當前存在一張表test_user,然后往這個表里面插入3百萬的數據:
CREATE TABLE `test_user` ( `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '主鍵id', `user_id` varchar(36) NOT NULL COMMENT '用戶id', `user_name` varchar(30) NOT NULL COMMENT '用戶名稱', `phone` varchar(20) NOT NULL COMMENT '手機號碼', `lan_id` int(9) NOT NULL COMMENT '本地網', `region_id` int(9) NOT NULL COMMENT '區(qū)域', `create_time` datetime NOT NULL COMMENT '創(chuàng)建時間', PRIMARY KEY (`id`), KEY `idx_user_id` (`user_id`) ) ENGINE=InnoDB AUTO_INCREMENT;
在數據庫開發(fā)過程中我們經常會使用分頁,核心技術是使用用 limit start, count 分頁語句進行數據的讀取。
我們分別看下從0、10000、100000、500000、1000000、1800000開始分頁的執(zhí)行時長(每頁取100條)。
SELECT * FROM test_user LIMIT 0,100; # 0.031 SELECT * FROM test_user LIMIT 10000,100; # 0.047 SELECT * FROM test_user LIMIT 100000,100; # 0.109 SELECT * FROM test_user LIMIT 500000,100; # 0.219 SELECT * FROM test_user LIMIT 1000000,100; # 0.547s SELECT * FROM test_user LIMIT 1800000,100; # 1.625s
我們已經看出隨著起始記錄的增加,時間也隨著增大。這說明分頁語句limit跟起始頁碼是有很大關系的,那么我們把起始記錄改為290w看下:
SELECT * FROM test_user LIMIT 2900000,100; # 3.062s
我們驚訝的發(fā)現MySQL在數據量大的情況下分頁起點越大,查詢速度越慢!
那么為什么會出現上述這種情況呢?
答案: 因為 limit 2900000,100 的語法實際上是mysql掃描到前2900100條數據,之后丟棄前面的3000000行,這個步驟其實是浪費掉的。
從中我們也能總結出以下兩件事情:
limit語句的查詢時間與起始記錄的位置成正比。
mysql的limit語句是很方便,但是對記錄很多的表并不適合直接使用。
二、MySQL中的limit用法
limit子句可以被用于強制select語句返回指定的記錄數,其語法格式如下:
SELECT * FROM 表名 limit m,n; SELECT * FROM table LIMIT [offset,] rows;
limit接受一個或兩個數字參數,參數必須是一個整數常量,如果給定兩個參數:
第一個參數指定第一個返回記錄行的偏移量
第二個參數指定返回記錄行的最大數目
2.1 m代表從m+1條記錄行開始檢索,n代表取出n條數據。(m可設為0)
SELECT * FROM 表名 limit 6,5;
上述SQL表示從第7條記錄行開始算,取出5條數據
2.2 值得注意的是,n可以被設置為-1,當n為-1時,表示從m+1行開始檢索,直到取出最后一條數據
SELECT * FROM 表名 limit 6,-1;
上述SQL表示取出第6條記錄行以后的所有數據
2.3 若只給出m,則表示從第1條記錄行開始算一共取出m條
SELECT * FROM 表名 limit 6;
2.4 以年齡倒序后取出前3行
select * from student order by age desc limit 3;
2.5 跳過前3行后再2取行
select * from student order by age desc limit 3,2;
三、深度分頁優(yōu)化策略
方法一:用主鍵id或者唯一索引優(yōu)化
即先找到上次分頁的最大id,然后利用id上的索引來查詢:
SELECT * FROM test_user WHERE id>1000000 LIMIT 100; # 0.047秒
使用此優(yōu)化SQL相比于前面的查詢速度已經快了11倍。除了主鍵ID,也可以利用唯一索引快速定位部分數據,避免全表掃描。例如讀取第1000到1019行數據(pk是唯一鍵),則相對應的優(yōu)化SQL如下:
SELECT * FROM 表名稱 WHERE pk>=1000 ORDER BY pk ASC LIMIT 0,20
原因:索引掃描,速度會很快。
適用場景:如果數據查詢出來是按照pk或者id進行排序,并且全部數據沒有缺失的話則可以這樣優(yōu)化,否則分頁操作會漏數據。
方法二:利用索引覆蓋優(yōu)化
我們都知道,利用了索引查詢的語句中如果只包含了那個索引列(也就是索引覆蓋),那么這種情況會查詢很快。
為什么索引覆蓋查詢會很快呢?
答案:因為利用索引查找有優(yōu)化算法,且數據就在查詢索引上面,不用再去找相關的數據地址了,這樣節(jié)省了很多時間。另外Mysql中也有相關的索引緩存,在并發(fā)高的時候利用緩存就效果更好了。
在我們的測試表test_user中,id字段是主鍵,自然就包含了默認的主鍵索引?,F在讓我們看看利用覆蓋索引的查詢效果如何。
這次我們查詢第1000001到1000100行的數據(利用覆蓋索引,只包含id列):
SELECT id FROM test_user LIMIT 1000000,100; # 0.843秒
從這個結果中發(fā)現查詢速度比全表掃描速度還要慢(當然在重復執(zhí)行這條SQL,多次查詢之后速度還是變快了很多,幾乎省了一半時間,這是由于緩存的原因), 接著使用explain命令來查看該SQL的執(zhí)行計劃,發(fā)現該SQL執(zhí)行采用的普通索引 idx_user_id:
EXPLAIN SELECT id FROM test_user LIMIT 1000000,100;
如果我們把普通索引給刪除的話,就會發(fā)現執(zhí)行上述SQL其采用的會是主鍵索引。那如果不刪除普通索引的話,針對這種情況,我們要讓上述SQL走主鍵索引的話,則可以使用order by語句:
SELECT id FROM test_user ORDER BY id ASC LIMIT 1000000,100; # 0.250秒
那么如果我們也要查詢所有列,有兩種方法,一種是id>=的形式,另一種就是利用join。
第一種寫法:
SELECT * FROM test_user WHERE ID >= (SELECT id FROM test_user ORDER BY id ASC LIMIT 1000000,1) LIMIT 100;
上述SQL查詢時間為0.281秒
第二種寫法:
SELECT * FROM (SELECT id FROM test_user ORDER BY id ASC LIMIT 1000000,100) a LEFT JOIN test_user b ON a.id = b.id;
上述SQL查詢時間為0.252秒
方法三:基于索引再排序
其中pageNum表示頁碼,其取值從0開始;pageSize表示指的是每頁多少條數據。
SELECT * FROM 表名稱 WHERE id_pk > (pageNum*pageSize) ORDER BY id_pk ASC LIMIT pageSize;
適應場景:
- 適用于數據量多的情況
- 最好ORDER BY后的列對象是主鍵或唯一索引
- id數據沒有缺失,可以作為序號使用
- 使用ORDER BY操作能利用索引被消除,但結果集是穩(wěn)定的
原因:
- 索引掃描,速度會很快
- 但MySQL的排序操作,只有ASC沒有DESC。MySQL中索引存儲的排序方式是ASC的,沒有DESC的索引。這就能夠理解為啥order by 默認是按照ASC來排序的了吧
方法四:基于索引使用prepare
PREPARE預編譯一個SQL語句,并為其分配一個名稱 stmt_name,以便以后引用該語句,預編譯好的語句用EXECUTE執(zhí)行。
PREPARE stmt_name FROM 'SELECT * FROM test_user WHERE id > ? ORDER BY id ASC LIMIT ?'; SET @a = 1000000; SET @b = 100; EXECUTE stmt_name USING @a, @b;;
上述SQL查詢時間為0.047秒。
對于定義好的PREPARE預編譯語句,我們可以使用下述命令來釋放該預編譯語句:
DEALLOCATE PREPARE stmt_name;
原因:
- 索引掃描,速度會很快.
- prepare語句又比一般的查詢語句快一點。
方法五:利用"子查詢+索引"快速定位數據
其中page表示頁碼,其取值從0開始;pagesize表示指的是每頁多少條數據。
SELECT * FROM your_table WHERE id <= (SELECT id FROM your_table ORDER BY id DESC LIMIT ($page-1)*$pagesize ORDER BY id DESC LIMIT $pagesize);
方法六:利用復合索引進行優(yōu)化
假設數據表 collect ( id, title ,info ,vtype) 就這4個字段,其中id是主鍵自增,title用定長,info用text, vtype是tinyint,vtype是一個普通索引。
現在往里面填充數據,填充10萬條記錄,數據庫表占用硬1.6G。
select id,title from collect limit 1000,10;
執(zhí)行上述SQL速度很快,基本上0.01秒就OK。
select id,title from collect limit 90000,10;
然后再執(zhí)行上述SQL,就發(fā)現非常慢,基本上平均8~9秒完成。
這個時候如果我們執(zhí)行下述,我們會發(fā)現速度又變的很快,0.04秒就OK。
select id from collect order by id limit 90000,10;
那么這個現象的原因是什么?
答案:因為用了id主鍵做索引, 這里實現了索引覆蓋,當然快。
所以如果想一起查詢其它列的話,可以按照索引覆蓋進行優(yōu)化,具體如下:
select id,title from collect where id >= (select id from collect order by id limit 90000,1) limit 10;
再看下面的語句,帶上where 條件:
select id from collect where vtype=1 order by id limit 90000,10;
可以發(fā)現這個速度上也是很慢的,用了8~9秒!
這里有一個疑惑:vtype 做了索引了???怎么會慢呢?
vtype做了索引是不錯,如果直接對vtype進行過濾:
select id from collect where vtype=1 limit 1000,10;
可以看到速度還是很快的,基本上0.05秒,如果從9萬開始,那就是0.05*90=4.5秒的速度了。
其實加了 order by id 就不走索引,這樣做還是全表掃描,解決的辦法是:復合索引!
因此針對下述SQL深度分頁優(yōu)化時可以加一個search_index(vtype,id)復合索引:
select id from collect where vtype=1 order by id limit 90000,10;
綜上:
- 在進行SQL查詢深度分頁優(yōu)化時,如果對于有where條件,又想走索引用limit的,必須設計一個索引,將where放第一位,limit用到的主鍵放第二位,而且只能select 主鍵。
- 最后根據查詢出的主鍵走一級索引找到對應的數據。
- 按這樣的邏輯,百萬級的limit 在0.0x秒就可以分完,完美解決了分頁問題。
到此這篇關于MySQL調優(yōu)之SQL查詢深度分頁問題的文章就介紹到這了,更多相關MySQL 查詢深度分頁內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
MySQL中JSON_ARRAYAGG和JSON_OBJECT函數功能和用法
JSON(JavaScript Object Notation)是一種輕量級的數據交換格式,它可以用來存儲和表示結構化的數據,在MySQL數據庫中,JSON格式的數據處理已經變得越來越常見,本文將深入探討這兩個函數的用途、語法和示例,以幫助您更好地理解它們的功能和用法,需要的朋友可以參考下2023-09-09MySQL Hints控制查詢優(yōu)化器的選擇問題小結
MySQL Hints是一種強大的工具,可以幫助我們解決復雜的查詢性能問題,然而,它們應該謹慎使用,并且總是與徹底的測試和驗證相結合,本文介紹MySQL Hints控制查詢優(yōu)化器的選擇,感興趣的朋友一起看看吧2024-06-06