MySQL深分頁問題解決的實戰(zhàn)記錄
前言
我們日常做分頁需求時,一般會用limit實現,但是當偏移量特別大的時候,查詢效率就變得低下。本文將分4個方案,討論如何優(yōu)化MySQL百萬數據的深分頁問題,并附上最近優(yōu)化生產慢SQL的實戰(zhàn)案例。
limit深分頁為什么會變慢?
先看下表結構哈:
CREATE TABLE account ( id int(11) NOT NULL AUTO_INCREMENT COMMENT '主鍵Id', name varchar(255) DEFAULT NULL COMMENT '賬戶名', balance int(11) DEFAULT NULL COMMENT '余額', create_time datetime NOT NULL COMMENT '創(chuàng)建時間', update_time datetime NOT NULL ON UPDATE CURRENT_TIMESTAMP COMMENT '更新時間', PRIMARY KEY (id), KEY idx_name (name), KEY idx_update_time (update_time) //索引 ) ENGINE=InnoDB AUTO_INCREMENT=1570068 DEFAULT CHARSET=utf8 ROW_FORMAT=REDUNDANT COMMENT='賬戶表';
假設深分頁的執(zhí)行SQL如下:
select id,name,balance from account where update_time> '2020-09-19' limit 100000,10;
這個SQL的執(zhí)行時間如下:
執(zhí)行完需要0.742秒,深分頁為什么會變慢呢?如果換成 limit 0,10,只需要0.006秒哦
我們先來看下這個SQL的執(zhí)行流程:
- 通過普通二級索引樹idx_update_time,過濾update_time條件,找到滿足條件的記錄ID。
- 通過ID,回到主鍵索引樹,找到滿足記錄的行,然后取出展示的列(回表)
- 掃描滿足條件的100010行,然后扔掉前100000行,返回。
SQL的執(zhí)行流程
執(zhí)行計劃如下:
SQL變慢原因有兩個:
- limit語句會先掃描offset+n行,然后再丟棄掉前offset行,返回后n行數據。也就是說limit 100000,10,就會掃描100010行,而limit 0,10,只掃描10行。
- limit 100000,10 掃描更多的行數,也意味著回表更多的次數。
通過子查詢優(yōu)化
因為以上的SQL,回表了100010次,實際上,我們只需要10條數據,也就是我們只需要10次回表其實就夠了。因此,我們可以通過減少回表次數來優(yōu)化。
回顧B+ 樹結構
那么,如何減少回表次數呢?我們先來復習下B+樹索引結構哈~
InnoDB中,索引分主鍵索引(聚簇索引)和二級索引
- 主鍵索引,葉子節(jié)點存放的是整行數據
- 二級索引,葉子節(jié)點存放的是主鍵的值。
把條件轉移到主鍵索引樹
如果我們把查詢條件,轉移回到主鍵索引樹,那就不就可以減少回表次數啦。轉移到主鍵索引樹查詢的話,查詢條件得改為主鍵id了,之前SQL的update_time這些條件咋辦呢?抽到子查詢那里嘛~
子查詢那里怎么抽的呢?因為二級索引葉子節(jié)點是有主鍵ID的,所以我們直接根據update_time來查主鍵ID即可,同時我們把 limit 100000的條件,也轉移到子查詢,完整SQL如下:
select id,name,balance FROM account where id >= (select a.id from account a where a.update_time >= '2020-09-19' limit 100000, 1) LIMIT 10;
查詢效果一樣的,執(zhí)行時間只需要0.038秒!
我們來看下執(zhí)行計劃
由執(zhí)行計劃得知,子查詢 table a查詢是用到了idx_update_time索引。首先在索引上拿到了聚集索引的主鍵ID,省去了回表操作,然后第二查詢直接根據第一個查詢的 ID往后再去查10個就可以了!
因此,這個方案是可以的~
INNER JOIN 延遲關聯
延遲關聯的優(yōu)化思路,跟子查詢的優(yōu)化思路其實是一樣的:都是把條件轉移到主鍵索引樹,然后減少回表。不同點是,延遲關聯使用了inner join代替子查詢。
優(yōu)化后的SQL如下:
SELECT acct1.id,acct1.name,acct1.balance FROM account acct1 INNER JOIN (SELECT a.id FROM account a WHERE a.update_time >= '2020-09-19' ORDER BY a.update_time LIMIT 100000, 10) AS acct2 on acct1.id= acct2.id;
查詢效果也是杠桿的,只需要0.034秒
執(zhí)行計劃如下:
查詢思路就是,先通過idx_update_time二級索引樹查詢到滿足條件的主鍵ID,再與原表通過主鍵ID內連接,這樣后面直接走了主鍵索引了,同時也減少了回表。
標簽記錄法
limit 深分頁問題的本質原因就是:偏移量(offset)越大,mysql就會掃描越多的行,然后再拋棄掉。這樣就導致查詢性能的下降。
其實我們可以采用標簽記錄法,就是標記一下上次查詢到哪一條了,下次再來查的時候,從該條開始往下掃描。就好像看書一樣,上次看到哪里了,你就折疊一下或者夾個書簽,下次來看的時候,直接就翻到啦。
假設上一次記錄到100000,則SQL可以修改為:
select id,name,balance FROM account where id > 100000 order by id limit 10;
這樣的話,后面無論翻多少頁,性能都會不錯的,因為命中了id索引。但是你,這種方式有局限性:需要一種類似連續(xù)自增的字段。
使用between...and...
很多時候,可以將limit查詢轉換為已知位置的查詢,這樣MySQL通過范圍掃描between...and,就能獲得到對應的結果。
如果知道邊界值為100000,100010后,就可以這樣優(yōu)化:
select id,name,balance FROM account where id between 100000 and 100010 order by id desc;
手把手實戰(zhàn)案例
我們一起來看一個實戰(zhàn)案例哈。假設現在有表結構如下,并且有200萬數據.
CREATE TABLE account ( id varchar(32) COLLATE utf8_bin NOT NULL COMMENT '主鍵', account_no varchar(64) COLLATE utf8_bin NOT NULL DEFAULT '' COMMENT '賬號' amount decimal(20,2) DEFAULT NULL COMMENT '金額' type varchar(10) COLLATE utf8_bin DEFAULT NULL COMMENT '類型A,B' create_time datetime DEFAULT NULL COMMENT '創(chuàng)建時間', update_time datetime DEFAULT NULL COMMENT '更新時間', PRIMARY KEY (id), KEY `idx_account_no` (account_no), KEY `idx_create_time` (create_time) ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_bin COMMENT='賬戶表'
業(yè)務需求是這樣:獲取最2021年的A類型賬戶數據,上報到大數據平臺。
一般思路的實現方式
很多伙伴接到這么一個需求,會直接這么實現了:
//查詢上報總數量 Integer total = accountDAO.countAccount(); //查詢上報總數量對應的SQL <select id ='countAccount' resultType="java.lang.Integer"> seelct count(1) from account where create_time >='2021-01-01 00:00:00' and type ='A' </select> //計算頁數 int pageNo = total % pageSize == 0 ? total / pageSize : (total / pageSize + 1); //分頁查詢,上報 for(int i = 0; i < pageNo; i++){ List<AcctountPO> list = accountDAO.listAccountByPage(startRow,pageSize); startRow = (pageNo-1)*pageSize; //上報大數據 postBigData(list); } //分頁查詢SQL(可能存在limit深分頁問題,因為account表數據量幾百萬) <select id ='listAccountByPage' > seelct * from account where create_time >='2021-01-01 00:00:00' and type ='A' limit #{startRow},#{pageSize} </select>
實戰(zhàn)優(yōu)化方案
以上的實現方案,會存在limit深分頁問題,因為account表數據量幾百萬。那怎么優(yōu)化呢?
其實可以使用標簽記錄法,有些伙伴可能會有疑惑,id主鍵不是連續(xù)的呀,真的可以使用標簽記錄?
當然可以,id不是連續(xù),我們可以通過order by讓它連續(xù)嘛。優(yōu)化方案如下:
//查詢最小ID String lastId = accountDAO.queryMinId(); //查詢最大ID對應的SQL <select id="queryMinId" returnType=“java.lang.String”> select MIN(id) from account where create_time >='2021-01-01 00:00:00' and type ='A' </select> //一頁的條數 Integer pageSize = 100; List<AcctountPO> list ; do{ list = listAccountByPage(lastId,pageSize); //標簽記錄法,記錄上次查詢過的Id lastId = list.get(list,size()-1).getId(); //上報大數據 postBigData(list); }while(CollectionUtils.isNotEmpty(list)); <select id ="listAccountByPage"> select * from account where create_time >='2021-01-01 00:00:00' and id > #{lastId} and type ='A' order by id asc limit #{pageSize} </select>
總結
到此這篇關于MySQL深分頁問題的文章就介紹到這了,更多相關MySQL深分頁問題的內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
mysql?8.0.29?winx64.zip安裝配置方法圖文教程
這篇文章主要為大家詳細介紹了mysql?8.0.29?winx64.zip安裝配置方法圖文教程,文中安裝步驟介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2022-06-06提升MySQL查詢效率及查詢速度優(yōu)化的四個方法詳析
查詢語句的優(yōu)化是提高MySQL查詢速度的重要方法,可以通過使用JOIN語句、子查詢、優(yōu)化where子句等方式來減少查詢的時間,下面這篇文章主要給大家介紹了關于提升MySQL查詢效率及查詢速度優(yōu)化的四個方法,需要的朋友可以參考下2023-04-04在IntelliJ IDEA中使用Java連接MySQL數據庫的方法詳解
這篇文章主要介紹了在IntelliJ IDEA中使用Java連接MySQL數據庫的方法詳解,本文通過圖文并茂的形式給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-10-10