So funktioniert die Nginx-Strombegrenzung
Die Nginx-Strombegrenzung verwendet den Leaky-Bucket-Algorithmus, der in der Kommunikation und in paketvermittelten Computern weit verbreitet ist Netzwerke zur Bewältigung von Notfällen, wenn die Bandbreite begrenzt ist. Das Prinzip ist einem Eimer sehr ähnlich, bei dem Wasser von oben eindringt und von unten ausläuft; wenn die Wasserzuflussrate größer ist als die Wasseraustrittsrate, läuft der Eimer über.
Im Anforderungsverarbeitungsprozess stellt das Wasser die Anforderung des Clients dar, und der Bucket stellt eine Warteschlange dar, in der die Anforderung darauf wartet, gemäß dem First-In-First-Out-Prinzip (FIFO) verarbeitet zu werden ) Algorithmus. Ein Leck bedeutet, dass eine Anfrage den Puffer verlässt und vom Server verarbeitet wird. Ein Überlauf bedeutet, dass eine Anfrage verworfen und nie bedient wird.
1. Zugriffshäufigkeit begrenzen (normaler Datenverkehr)
In Nginx verwenden wir ngx_http_limit_req_module Modul zur Begrenzung der Zugriffshäufigkeit von Anfragen, implementiert auf Basis des Leaky-Bucket-Algorithmus-Prinzips. Als nächstes verwenden wir die Nginx-Anweisungen limit_req_zone und limit_req, um die Anforderungsverarbeitungsrate einer einzelnen IP zu begrenzen.
Syntax: limit_req_zone key zone rate
Taste: Definieren Sie das aktuelle Begrenzungsobjekt, binär_remote_addr Es handelt sich um einen Schlüssel, der die aktuelle Begrenzung basierend auf remote_addr (Client-IP) darstellt. Der Zweck von binär_ besteht darin, die Speichernutzung zu komprimieren.
zone: Definieren Sie einen gemeinsamen Speicherbereich zum Speichern von Zugriffsinformationen: 10m stellt einen Speicherbereich mit einer Größe von 10m und dem Namen myratelimit dar. Alle 1 m können die Zugangsinformationen von 16.000 IP-Adressen speichern, sodass 10 m die Zugangsinformationen von 160.000 IP-Adressen speichern können.
Der Parameter „Rate“ wird verwendet, um die maximale Zugriffsrate festzulegen. „Rate=10r/s“ bedeutet, dass nicht mehr als 10 Anfragen pro Sekunde verarbeitet werden. . Nginx verfolgt Anforderungsinformationen tatsächlich mit einer Granularität von Millisekunden, daher ist 10r/s tatsächlich die Grenze: Alle 100 Millisekunden wird eine Anforderung verarbeitet. Dies bedeutet, dass die Bearbeitung der Anfrage verweigert wird, wenn innerhalb der nächsten 100 Millisekunden nach der Verarbeitung der letzten Anfrage eine weitere Anfrage eintrifft.
2. Begrenzen Sie die Zugriffshäufigkeit (Burst-Verkehr)
Gemäß der obigen Konfiguration, wenn der Verkehr plötzlich ansteigt Wenn es groß ist, werden übermäßige Anfragen abgelehnt und Burst-Verkehr kann nicht verarbeitet werden. Wie sollen wir also mit Burst-Verkehr umgehen? Nginx stellt den Burst-Parameter bereit, um das Problem des Burst-Verkehrs zu lösen, und wird in Verbindung mit dem Nodelay-Parameter verwendet. Burst wird als Burst, Burst übersetzt und gibt die Anzahl der zusätzlichen Anforderungen an, die nach Überschreiten der eingestellten Verarbeitungsrate verarbeitet werden können.
burst=20 nodelay bedeutet, dass diese 20 Anfragen sofort und ohne Verzögerung bearbeitet werden, was einer Sonderbearbeitung entspricht Fälle. Selbst wenn diese 20 Burst-Anfragen sofort verarbeitet werden, werden nachfolgende Anfragen nicht sofort verarbeitet. Burst = 20 entspricht der Belegung von 20 Lücken in der Cache-Warteschlange. Selbst wenn die Anforderung verarbeitet wird, können diese 20 Positionen nur alle 100 ms freigegeben werden. Dadurch wird der Effekt einer stabilen Geschwindigkeit erreicht, aber auch plötzlicher Verkehr kann normal verarbeitet werden.
3. Begrenzen Sie die Anzahl gleichzeitiger Verbindungen
Das ngx_http_limit_conn_module-Modul bietet die Funktion, die Anzahl der Ressourcenverbindungen mithilfe von limit_conn_zone und limit_conn zu begrenzen zwei Nur ein Befehl reicht aus.
limit_conn perip 20: Der entsprechende Schlüssel ist $binary_remote_addr, was bedeutet, dass eine einzelne IP auf das gleichzeitige Halten von bis zu 20 Verbindungen beschränkt werden kann . limit_conn perserver 100: Der entsprechende Schlüssel ist $server_name, der die Gesamtzahl gleichzeitiger Verbindungen angibt, die der virtuelle Host (Server) gleichzeitig verarbeiten kann. Beachten Sie, dass diese Verbindung erst gezählt wird, nachdem der Anforderungsheader vom Backend-Server verarbeitet wurde.
Das obige ist der detaillierte Inhalt vonSo implementieren Sie die Nginx-Strombegrenzung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!