


Filtrage des requêtes HTTP Nginx et analyse des performances du proxy inverse
Filtrage des requêtes HTTP Nginx et analyse des performances du proxy inverse
Nginx est actuellement un serveur HTTP et un serveur proxy inverse largement utilisés dans l'industrie. En raison de sa conception simple et de ses excellentes performances, il est devenu un grand nombre d'applications Web, de systèmes cloud et. applications mobiles. serveur préféré. Dans les applications pratiques, Nginx est non seulement responsable du traitement et de la réponse aux requêtes HTTP, mais effectue également le filtrage des requêtes HTTP et le proxy inverse. Cet article analysera la mise en œuvre du filtrage des requêtes HTTP et du proxy inverse de Nginx, et effectuera des tests et des analyses de performances.
- Mise en œuvre du filtrage des requêtes HTTP
Nginx fournit un module de filtrage des requêtes HTTP basé sur des expressions régulières, qui peut intercepter les requêtes HTTP qualifiées pour filtrer les requêtes malveillantes ou protéger des ressources spécifiées. Ajoutez le code suivant au fichier de configuration Nginx pour activer le filtrage des requêtes HTTP :
http { server { location / { if ($http_user_agent ~* Firefox) { return 403; } ... } } }
Dans le code ci-dessus, $http_user_agent est une variable intégrée de Nginx, qui représente le champ User-Agent dans l'en-tête de la requête HTTP. une correspondance d'expression régulière. Si la chaîne Firefox correspond, une erreur 403 sera renvoyée. De cette manière, nous pouvons filtrer un ou plusieurs types de demandes.
Le module de filtrage des requêtes HTTP de Nginx fournit également d'autres types de variables et d'instructions, telles que $http_referer, $request_method, $remote_addr, etc., qui peuvent être utilisées pour implémenter un filtrage complexe des requêtes HTTP. Les lecteurs peuvent vérifier les documents associés pour les entrées. compréhension approfondie.
- Mise en œuvre du proxy inverse
La fonction de proxy inverse de Nginx peut transmettre le proxy de demande du client au serveur d'applications back-end Une fois que le serveur d'applications back-end a renvoyé le résultat, Nginx renvoie ainsi le résultat au client. atteindre la charge Le but d’équilibrer et d’améliorer les performances.
Ce qui suit est une simple configuration de proxy inverse :
http { upstream myapp { server 127.0.0.1:8080; server 127.0.0.1:8081; } server { listen 80; location / { proxy_pass http://myapp; } } }
Dans la configuration ci-dessus, nous définissons un amont nommé myapp, qui spécifie deux serveurs backend écoutant respectivement les ports 8080 et 8081. Dans le bloc serveur, nous écoutons le port 80, configurons l'emplacement / et transmettons la demande à myapp via la directive proxy_pass, et le proxy myapp la transmet au serveur backend.
Le proxy inverse de Nginx fournit également des stratégies avancées, telles que des algorithmes d'équilibrage de charge, la gestion des erreurs, la persistance de session, etc. Les lecteurs peuvent se référer aux documents pertinents pour en savoir plus.
- Tests et analyses de performances
Grâce à l'analyse ci-dessus, nous pouvons voir que les fonctions de filtrage des requêtes HTTP et de proxy inverse de Nginx sont très puissantes, mais dans les applications réelles, nous devons toujours prêter attention à ses performances. Afin de tester les performances de Nginx, nous avons utilisé l'outil ApacheBench (ab) pour tester et mener des expériences sur un serveur Ubuntu 20.04.
Le premier est le test de filtrage des requêtes HTTP. Nous définissons le champ User-Agent dans l'en-tête de la requête sur "Mozilla/5.0" et envoyons 1000 requêtes au serveur Nginx :
ab -n 1000 -H "User-Agent: Mozilla/5.0" http://localhost/
Les résultats du test montrent que Nginx peut gérer 22,33 requêtes. par seconde de requêtes, le temps moyen de chaque requête est de 44,76 ms, 90 % des requêtes sont terminées en 54 ms :
Concurrency Level: 1 Time taken for tests: 44.780 seconds Complete requests: 1000 Failed requests: 0 Total transferred: 159000 bytes HTML transferred: 0 bytes Requests per second: 22.33 [#/sec] (mean) Time per request: 44.780 [ms] (mean) Time per request: 44.780 [ms] (mean, across all concurrent requests) Transfer rate: 3.47 [Kbytes/sec] received
Vient ensuite le test du proxy inverse, nous avons utilisé un simple serveur backend pour simuler l'application réelle, chaque traitement de la requête le temps est de 10 ms et les requêtes sont lancées vers deux serveurs backend en même temps :
http { upstream myapp { server 127.0.0.1:8080; server 127.0.0.1:8081; } server { listen 80; location / { proxy_pass http://myapp; } } }
ab -n 1000 http://localhost/
Les résultats des tests montrent que Nginx peut gérer 966,41 requêtes par seconde, la durée moyenne de chaque requête est de 1,03 ms et 90 % des requêtes sont dans les 2 ms Terminé :
Concurrency Level: 1 Time taken for tests: 1.034 seconds Complete requests: 1000 Failed requests: 0 Total transferred: 154000 bytes HTML transferred: 0 bytes Requests per second: 966.41 [#/sec] (mean) Time per request: 1.034 [ms] (mean) Time per request: 1.034 [ms] (mean, across all concurrent requests) Transfer rate: 145.42 [Kbytes/sec] received
D'après les résultats des tests, on peut voir que Nginx a une très forte capacité à intercepter et à transmettre les requêtes HTTP, et peut gérer un grand nombre de requêtes et maintenir des performances élevées. Cependant, les performances de Nginx sont également limitées par des facteurs tels que les capacités matérielles du serveur, les paramètres du système d'exploitation et la configuration des lecteurs Nginx qui doivent s'ajuster et optimiser en fonction des conditions réelles des applications réelles.
Conclusion
Cet article analyse les fonctions de filtrage des requêtes HTTP et de proxy inverse de Nginx, présente sa mise en œuvre et ses performances, et effectue des tests et des analyses simples. En tant que serveur HTTP et serveur proxy inverse couramment utilisé, Nginx nous offre de puissantes capacités de service Web. Les lecteurs peuvent sélectionner et configurer différents modules et paramètres Nginx en fonction des besoins et de l'environnement réels pour obtenir les meilleures performances et effets.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Comment confirmer si Nginx est démarré: 1. Utilisez la ligne de commande: SystemCTl Status Nginx (Linux / Unix), netStat -ano | Findstr 80 (Windows); 2. Vérifiez si le port 80 est ouvert; 3. Vérifiez le message de démarrage NGINX dans le journal système; 4. Utilisez des outils tiers, tels que Nagios, Zabbix et Icinga.

Étapes pour démarrer Nginx dans Linux: Vérifiez si Nginx est installé. Utilisez SystemCTL Start Nginx pour démarrer le service NGINX. Utilisez SystemCTL Activer Nginx pour activer le démarrage automatique de Nginx au démarrage du système. Utilisez SystemCTL Status Nginx pour vérifier que le démarrage est réussi. Visitez http: // localhost dans un navigateur Web pour afficher la page de bienvenue par défaut.

Comment configurer Nginx dans Windows? Installez Nginx et créez une configuration d'hôte virtuelle. Modifiez le fichier de configuration principale et incluez la configuration de l'hôte virtuel. Démarrer ou recharger nginx. Testez la configuration et affichez le site Web. Activer sélectivement SSL et configurer les certificats SSL. Définissez sélectivement le pare-feu pour permettre le trafic Port 80 et 443.

Dans Linux, utilisez la commande suivante pour vérifier si Nginx est démarré: SystemCTL Status Nginx Juges Basé sur la sortie de la commande: si "Active: Active (Running)" s'affiche, Nginx est démarré. Si "Active: Inactive (Dead)" est affiché, Nginx est arrêté.

Les méthodes pour afficher l'état en cours d'exécution de Nginx sont: utilisez la commande PS pour afficher l'état du processus; Afficher le fichier de configuration Nginx /etc/nginx/nginx.conf; Utilisez le module d'état NGINX pour activer le point de terminaison d'état; Utilisez des outils de surveillance tels que Prometheus, Zabbix ou Nagios.

Le serveur n'a pas l'autorisation d'accéder à la ressource demandée, ce qui donne une erreur NGINX 403. Les solutions incluent: vérifier les autorisations de fichiers. Vérifiez la configuration .htaccess. Vérifiez la configuration de Nginx. Configurez les autorisations Selinux. Vérifiez les règles du pare-feu. Dépanner d'autres causes telles que les problèmes de navigateur, les défaillances du serveur ou d'autres erreurs possibles.

Il existe deux façons de résoudre le problème du domaine transversal NGINX: modifiez les en-têtes de réponse transversale: ajoutez des directives pour autoriser les demandes de domaine croisé, spécifier des méthodes et des en-têtes autorisés et définir le temps du cache. Utilisez le module CORS: Activez les modules et configurez les règles CORS pour permettre des demandes, des méthodes, des en-têtes et du temps de cache.

Le démarrage d'un serveur Nginx nécessite différentes étapes en fonction des différents systèmes d'exploitation: Système Linux / Unix: Installez le package NGINX (par exemple, en utilisant Apt-Get ou Yum). Utilisez SystemCTL pour démarrer un service NGINX (par exemple, sudo systemctl start nginx). Système Windows: téléchargez et installez les fichiers binaires Windows. Démarrer Nginx à l'aide de l'exécutable Nginx.exe (par exemple, nginx.exe -c conf \ nginx.conf). Peu importe le système d'exploitation que vous utilisez, vous pouvez accéder au serveur IP
