Heim > Datenbank > MySQL-Tutorial > MySQL-Paging-Abfragemethode für Millionen von Daten und ihre Optimierungsvorschläge

MySQL-Paging-Abfragemethode für Millionen von Daten und ihre Optimierungsvorschläge

autoload
Freigeben: 2021-05-07 15:10:23
nach vorne
3163 Leute haben es durchsucht

MySQL-Paging-Abfragemethode für Millionen von Daten und ihre Optimierungsvorschläge

Datenbank-SQL-Optimierung ist ein alltägliches Problem, wenn es um Paging-Abfragen mit Millionen von Datenmengen geht. Welche guten Optimierungsvorschläge gibt es? Einige häufig verwendete Methoden sind unten als Referenz und zum Lernen aufgeführt!

Methode 1: Direkte Verwendung der von der Datenbank bereitgestellten SQL-Anweisung

  • Anweisungsstil: In MySQL sind die folgenden Methoden verfügbar: SELECT * FROM table name LIMIT M,N
  • Adaptive Szenarien: Geeignet für Situation mit kleinen Datenmengen (Tupel-Hunderte/Tausende von Ebenen)
  • Grund/Nachteil: Der vollständige Tabellenscan ist sehr langsam und einige Datenbank-Ergebnissätze geben instabile Ergebnisse zurück (z. B. wird einmal 1, 2, 3 und ein anderes Mal zurückgegeben). gibt 2, 1,3 zurück. Die Grenze besteht darin, N Ausgaben von der M-Position der Ergebnismenge zu nehmen und den Rest zu verwerfen.

Methode 2: Erstellen Sie einen Primärschlüssel oder einen eindeutigen Index und verwenden Sie den Index ( unter der Annahme von 10 Elementen pro Seite)

  • Anweisungsstil: In MySQL können die folgenden Methoden verwendet werden: SELECT * FROM table name WHERE id_pk > (pageNum*10) LIMIT M
  • Adaptive Szenarien: Geeignet für Situationen mit großen Datenmengen (Zehntausende von Tupeln)
  • Grund: Das Scannen des Index erfolgt sehr schnell. Da die Datenabfrage nicht nach pk_id sortiert ist, gibt es Fälle, in denen Daten fehlen 3

Methode 3: Basierend auf der Indexsortierung

  • Anweisungsstil: In MySQL kann die folgende Methode verwendet werden: SELECT * FROM table name WHERE id_pk > (pageNum*10) ORDER BY id_pk ASC LIMIT M
  • Adaptive Szenarien: Geeignet für Situationen mit großen Datenmengen (Element Die Anzahl der Gruppen beträgt Zehntausende). Es ist am besten, dass das Spaltenobjekt nach ORDER BY der Primärschlüssel oder eindeutig ist, damit das ORDER BY Der Vorgang kann mithilfe des Index eliminiert werden, aber die Ergebnismenge ist stabil (zur Bedeutung von Stabilität siehe Methode 1). ist gefälscht, echtes DESC wird in Zukunft durchgeführt, ich freue mich auf ...). Gibt die Anzahl der Tupel pro Seite an

  • Anweisungsstil: In MySQL kann die folgende Methode verwendet werden: PREPARE stmt_name FROM SELECT * FROM table name WHERE id_pk > (?*?) ORDER BY id_pk ASC LIMIT M
Anpassen an Szenarien: großes Datenvolumen

Grund: Der Index-Scan erfolgt sehr schnell. Die Prepare-Anweisung ist schneller als die allgemeine Abfrageanweisung.

Methode 5: Wenn Sie MySQL zur Unterstützung von ORDER-Operationen verwenden, können Sie Indizes verwenden, um einige Tupel schnell zu finden und vollständige Tabellenscans zu vermeiden.
  • Zum Beispiel: Lesen Sie Tupel in den Zeilen 1000 bis 1019 (pk ist der Primärschlüssel). /einzigartiger Schlüssel). Variable)
  • Beispiel für die Verwendung einer Unterabfrage:
    SELECT * FROM your_table WHERE pk>=1000 ORDER BY pk ASC LIMIT 0,20
    Nach dem Login kopieren
  • Beispiel für die Verwendung einer Verbindung:
SELECT * FROM your_table WHERE id <=
(SELECT id FROM your_table ORDER BY id desc LIMIT ($page-1)*$pagesize ORDER BY id desc
LIMIT $pagesize
Nach dem Login kopieren

MySQL verwendet Limit-Paging für große Datenmengen. Mit zunehmender Seitenzahl wird die Abfrageeffizienz geringer. Testexperiment

1. Verwenden Sie direkt „Limit Start, Count Paging“-Anweisungen, was auch die in meinem Programm verwendete Methode ist:

SELECT * FROM your_table AS t1
JOIN (SELECT id FROM your_table ORDER BY id desc LIMIT ($page-1)*$pagesize AS t2
WHERE t1.id <= t2.id ORDER BY t1.id desc LIMIT $pagesize;
Nach dem Login kopieren
Wenn die Startseite klein ist, gibt es kein Leistungsproblem mit dem Schauen wir uns die Ausführungszeit von Paging ab 10, 100, 1000, 10000 an (nehmen Sie 20 Elemente pro Seite).

Wie folgt:

select * from product limit start, count
Nach dem Login kopieren

Wir haben gesehen, dass mit zunehmendem Startdatensatz auch die Zeit zunimmt. Dies zeigt, dass das Paging-Anweisungslimit eng mit der Startseitenzahl zusammenhängt, daher ändern wir den Startdatensatz in Schauen Sie sich das an 40 W (also ungefähr der durchschnittliche Rekord)

select * from product limit 10, 20 0.016秒
select * from product limit 100, 20 0.016秒
select * from product limit 1000, 20 0.047秒
select * from product limit 10000, 20 0.094秒
Nach dem Login kopieren

Sehen Sie sich die Zeit an, die wir benötigt haben, um die letzte Seite mit Datensätzen zu erhalten

select * from product limit 400000, 20 3.229秒
Nach dem Login kopieren

Für eine Seite mit der größten Seitenzahl wie dieser ist diese Zeit natürlich unerträglich.

Daraus können wir auch zwei Dinge schließen: Die Abfragezeit der Limit-Anweisung ist proportional zur Position des Startdatensatzes.

Die Limit-Anweisung von MySQL ist sehr praktisch, eignet sich jedoch nicht für die direkte Verwendung auf Tabellen mit viele Rekorde.

2. Leistungsoptimierungsmethode für das Limit-Paging-Problem

Verwenden Sie den Covering-Index der Tabelle, um Paging-Abfragen zu beschleunigen

Wir alle wissen, dass, wenn die Anweisung, die die Indexabfrage verwendet, nur diese Indexspalte (Covering-Index) enthält ), dann wird dieser Fall schnell abgefragt.

Da es einen Optimierungsalgorithmus für die Indexsuche gibt und sich die Daten im Abfrageindex befinden, ist es nicht erforderlich, die relevante Datenadresse zu finden, was viel Zeit spart. Darüber hinaus gibt es in MySQL auch einen zugehörigen Index-Cache. Es ist besser, den Cache zu verwenden, wenn die Parallelität hoch ist.

In unserem Beispiel wissen wir, dass das ID-Feld der Primärschlüssel ist und daher natürlich den Standard-Primärschlüsselindex enthält. Sehen wir uns nun an, wie die Abfrage mithilfe des Covering-Index funktioniert.

Dieses Mal fragen wir die Daten der letzten Seite (unter Verwendung eines abdeckenden Indexes, der nur die ID-Spalte umfasst) wie folgt ab:
    select * from product limit 866613, 20 37.44秒
    Nach dem Login kopieren
  1. Im Vergleich zu den 37,44 Sekunden für die Abfrage aller Spalten wird die Geschwindigkeit um etwa das Hundertfache erhöht
  2. 那么如果我们也要查询所有列,有两种方法,一种是id>=的形式,另一种就是利用join,看下实际情况:

    SELECT * FROM product WHERE ID > =(select id from product limit 866613, 1) limit 20
    Nach dem Login kopieren

    查询时间为0.2秒!

    另一种写法

    SELECT * FROM product a JOIN (select id from product limit 866613, 20) b ON a.ID = b.id
    Nach dem Login kopieren

    查询时间也很短!

    3. 复合索引优化方法

    MySql 性能到底能有多高?MySql 这个数据库绝对是适合dba级的高手去玩的,一般做一点1万篇新闻的小型系统怎么写都可以,用xx框架可以实现快速开发。可是数据量到了10万,百万至千万,他的性能还能那么高吗?一点小小的失误,可能造成整个系统的改写,甚至更本系统无法正常运行!好了,不那么多废话了。

    用事实说话,看例子:

    数据表 collect ( id, title ,info ,vtype) 就这4个字段,其中 title 用定长,info 用text, id 是逐渐,vtype是tinyint,vtype是索引。这是一个基本的新闻系统的简单模型。现在往里面填充数据,填充10万篇新闻。最后collect 为 10万条记录,数据库表占用硬1.6G。

    OK ,看下面这条sql语句:

    select id,title from collect limit 1000,10;
    Nach dem Login kopieren

    很快;基本上0.01秒就OK,再看下面的

    select id,title from collect limit 90000,10;
    Nach dem Login kopieren

    从9万条开始分页,结果?

    8-9秒完成,my god 哪出问题了?其实要优化这条数据,网上找得到答案。看下面一条语句:

    select id from collect order by id limit 90000,10;
    Nach dem Login kopieren
    Nach dem Login kopieren

    很快,0.04秒就OK。为什么?因为用了id主键做索引当然快。网上的改法是:

    select id,title from collect where id>=(select id from collect order by id limit 90000,1) limit 10;
    Nach dem Login kopieren

    这就是用了id做索引的结果。可是问题复杂那么一点点,就完了。看下面的语句

    select id from collect where vtype=1 order by id limit 90000,10;
    Nach dem Login kopieren

    很慢,用了8-9秒!

    到了这里我相信很多人会和我一样,有崩溃感觉!vtype 做了索引了啊?怎么会慢呢?vtype做了索引是不错,你直接

    select id from collect where vtype=1 limit 1000,10;
    Nach dem Login kopieren
    Nach dem Login kopieren

    是很快的,基本上0.05秒,可是提高90倍,从9万开始,那就是0.05*90=4.5秒的速度了。和测试结果8-9秒到了一个数量级。

    从这里开始有人提出了分表的思路,这个和dis #cuz 论坛是一样的思路。思路如下:

    建一个索引表:t (id,title,vtype) 并设置成定长,然后做分页,分页出结果再到 collect 里面去找info 。是否可行呢?实验下就知道了。

    10万条记录到 t(id,title,vtype) 里,数据表大小20M左右。用

    select id from collect where vtype=1 limit 1000,10;
    Nach dem Login kopieren
    Nach dem Login kopieren

    很快了。基本上0.1-0.2秒可以跑完。为什么会这样呢?我猜想是因为collect 数据太多,所以分页要跑很长的路。limit 完全和数据表的大小有关的。其实这样做还是全表扫描,只是因为数据量小,只有10万才快。OK, 来个疯狂的实验,加到100万条,测试性能。加了10倍的数据,马上t表就到了200多M,而且是定长。还是刚才的查询语句,时间是0.1-0.2秒完成!分表性能没问题?

    错!因为我们的limit还是9万,所以快。给个大的,90万开始

    select id from t where vtype=1 order by id limit 900000,10;
    Nach dem Login kopieren

    看看结果,时间是1-2秒!why ?

    分表了时间还是这么长,非常之郁闷!有人说定长会提高limit的性能,开始我也以为,因为一条记录的长度是固定的,mysql 应该可以算出90万的位置才对啊?可是我们高估了mysql 的智能,他不是商务数据库,事实证明定长和非定长对limit影响不大?怪不得有人说discuz到了100万条记录就会很慢,我相信这是真的,这个和数据库设计有关!

    难道MySQL 无法突破100万的限制吗???到了100万的分页就真的到了极限?

    答案是:NO 为什么突破不了100万是因为不会设计mysql造成的。下面介绍非分表法,来个疯狂的测试!一张表搞定100万记录,并且10G 数据库,如何快速分页!

    好了,我们的测试又回到 collect表,开始测试结论是:

    30万数据,用分表法可行,超过30万他的速度会慢道你无法忍受!当然如果用分表+我这种方法,那是绝对完美的。但是用了我这种方法后,不用分表也可以完美解决!

    答案就是:复合索引!有一次设计mysql索引的时候,无意中发现索引名字可以任取,可以选择几个字段进来,这有什么用呢?

    开始的

    select id from collect order by id limit 90000,10;
    Nach dem Login kopieren
    Nach dem Login kopieren

    这么快就是因为走了索引,可是如果加了where 就不走索引了。抱着试试看的想法加了 search(vtype,id) 这样的索引。

    然后测试

    select id from collect where vtype=1 limit 90000,10;
    Nach dem Login kopieren

    非常快!0.04秒完成!

    再测试:

    select id ,title from collect where vtype=1 limit 90000,10;
    Nach dem Login kopieren

    非常遗憾,8-9秒,没走search索引!

    再测试:search(id,vtype),还是select id 这个语句,也非常遗憾,0.5秒。

    综上:如果对于有where 条件,又想走索引用limit的,必须设计一个索引,将where 放第一位,limit用到的主键放第2位,而且只能select 主键!

    完美解决了分页问题了。可以快速返回id就有希望优化limit , 按这样的逻辑,百万级的limit 应该在0.0x秒就可以分完。看来mysql 语句的优化和索引时非常重要的!

    Empfohlen: „MySQL-Tutorial

    Das obige ist der detaillierte Inhalt vonMySQL-Paging-Abfragemethode für Millionen von Daten und ihre Optimierungsvorschläge. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:jb51.net
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage