文章詳情頁
mysql - 千萬數據 分頁,當偏移量 原來越大時,怎么優化速度
瀏覽:89日期:2022-06-13 09:43:41
問題描述
以mysql為例,一般數據量比較大的時候,分頁的話,偏移量約大,查詢效率越低,
比如有某個帖子有200萬評論,每頁顯示10條,就有20萬頁, 當取20萬頁,數據該怎么處理呢,有什么好的方法可以解決這種 需求呢,
實例: 網易音樂,單個歌曲最大評論數有140多萬,分頁速度處理的很好的,
問題解答
回答1:第一我相信網易音樂讀取數據的方式絕對是使用nosql,去讀取數據。當然假如你的數據表訪問頻率不高的話,還是可以直接讀取數據庫,當然mysql innodb庫有個坑爹的弱點,就是你查詢頁數越大,所以的效果就越小。所以一般我們是通過id去提高查詢的效果舊的查詢用法 limit 100000,10 建議查詢用法 where id > 100000 limit 10。這樣可以保證到索引的使用。當然你可以使用分錶的形式,降低單表數據,從而提高查詢效率
回答2:如果用redis的化應該是將id都存在list中,然后利用redis獲得list的某個片段,然后拿片段里的ID到mysql去查詢結果。
當然如果你要加上排序的話就沒轍了。
排行榜
