


Pratique de configuration d'équilibrage de charge Nginx pour améliorer la disponibilité du site Web
Pratique de configuration de l'équilibrage de charge Nginx pour améliorer la disponibilité du site Web
Résumé : Nginx est un serveur Web hautes performances et un serveur proxy inverse. Grâce à la configuration de l'équilibrage de charge, les requêtes peuvent être distribuées à plusieurs serveurs principaux, améliorant ainsi la disponibilité et les performances du site Web. Cet article explique comment configurer l'équilibrage de charge Nginx et utiliser un exemple de code.
- Qu'est-ce que l'équilibrage de charge ?
L'équilibrage de charge est une technologie qui distribue les requêtes à plusieurs serveurs en répartissant uniformément la charge, elle peut améliorer la stabilité et les performances du système. L'équilibrage de charge peut améliorer la disponibilité du site Web. Lorsqu'un serveur principal tombe en panne, d'autres serveurs peuvent toujours fournir des services normalement.
- Configuration de l'équilibrage de charge Nginx
Nginx peut configurer l'équilibrage de charge via le module en amont. Nous pouvons ajouter la configuration suivante au fichier de configuration Nginx (généralement /etc/nginx/nginx.conf) :
http { upstream myapp { server backend1.example.com; server backend2.example.com; server backend3.example.com; } server { listen 80; location / { proxy_pass http://myapp; } } }
Dans la configuration ci-dessus, nous définissons un bloc en amont nommé myapp, qui contient plusieurs adresses de serveurs backend. Dans le bloc serveur, nous transmettons la requête à myapp via la directive proxy_pass.
- Stratégie d'équilibrage de charge
Nginx prend en charge plusieurs stratégies d'équilibrage de charge, telles que l'interrogation (stratégie par défaut), le hachage IP, le minimum de connexions, etc. Nous pouvons configurer la politique en ajoutant les directives pertinentes dans le bloc en amont. Voici quelques exemples de plusieurs stratégies d'équilibrage de charge couramment utilisées :
Stratégie d'interrogation :
upstream myapp { server backend1.example.com; server backend2.example.com; server backend3.example.com; }
Copier après la connexionStratégie de hachage IP :
upstream myapp { ip_hash; server backend1.example.com; server backend2.example.com; server backend3.example.com; }
Copier après la connexionStratégie de moindre connexion :
upstream myapp { least_conn; server backend1.example.com; server backend2.example.com; server backend3.example.com; }
Copier après la connexion
- Exemple de code d'équilibrage de charge
Afin de mieux comprendre la configuration de l'équilibrage de charge Nginx, un exemple pratique est donné ci-dessous. Supposons que nous ayons trois serveurs backend qui servent une application Web. Nous pouvons suivre les étapes suivantes pour le configurer :
- Étape 1 : Déployez l'application web sur chaque serveur backend et écoutez sur différents ports.
- Étape 2 : Configurez l'équilibrage de charge sur le serveur Nginx.
Exemple de fichier de configuration Nginx (/etc/nginx/nginx.conf) :
http { upstream myapp { server backend1.example.com:8000; server backend2.example.com:8000; server backend3.example.com:8000; } server { listen 80; location / { proxy_pass http://myapp; } } }
Dans l'exemple ci-dessus, nous supposons que chaque serveur backend écoute sur le port 8000. En transmettant la demande à myapp, Nginx sélectionnera automatiquement un serveur backend pour gérer la demande.
- Résumé
Grâce à la configuration d'équilibrage de charge de Nginx, nous pouvons répartir uniformément les requêtes de sites Web sur plusieurs serveurs backend pour améliorer la disponibilité et les performances du site Web. Cet article présente la méthode de configuration de l'équilibrage de charge Nginx et fournit un exemple de code. J'espère que les lecteurs pourront apprendre de cet article comment implémenter la configuration de l'équilibrage de charge via Nginx et améliorer la disponibilité des sites Web dans des applications pratiques.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Comment confirmer si Nginx est démarré: 1. Utilisez la ligne de commande: SystemCTl Status Nginx (Linux / Unix), netStat -ano | Findstr 80 (Windows); 2. Vérifiez si le port 80 est ouvert; 3. Vérifiez le message de démarrage NGINX dans le journal système; 4. Utilisez des outils tiers, tels que Nagios, Zabbix et Icinga.

Comment configurer Nginx dans Windows? Installez Nginx et créez une configuration d'hôte virtuelle. Modifiez le fichier de configuration principale et incluez la configuration de l'hôte virtuel. Démarrer ou recharger nginx. Testez la configuration et affichez le site Web. Activer sélectivement SSL et configurer les certificats SSL. Définissez sélectivement le pare-feu pour permettre le trafic Port 80 et 443.

Dans Linux, utilisez la commande suivante pour vérifier si Nginx est démarré: SystemCTL Status Nginx Juges Basé sur la sortie de la commande: si "Active: Active (Running)" s'affiche, Nginx est démarré. Si "Active: Inactive (Dead)" est affiché, Nginx est arrêté.

Étapes pour démarrer Nginx dans Linux: Vérifiez si Nginx est installé. Utilisez SystemCTL Start Nginx pour démarrer le service NGINX. Utilisez SystemCTL Activer Nginx pour activer le démarrage automatique de Nginx au démarrage du système. Utilisez SystemCTL Status Nginx pour vérifier que le démarrage est réussi. Visitez http: // localhost dans un navigateur Web pour afficher la page de bienvenue par défaut.

Le démarrage d'un serveur Nginx nécessite différentes étapes en fonction des différents systèmes d'exploitation: Système Linux / Unix: Installez le package NGINX (par exemple, en utilisant Apt-Get ou Yum). Utilisez SystemCTL pour démarrer un service NGINX (par exemple, sudo systemctl start nginx). Système Windows: téléchargez et installez les fichiers binaires Windows. Démarrer Nginx à l'aide de l'exécutable Nginx.exe (par exemple, nginx.exe -c conf \ nginx.conf). Peu importe le système d'exploitation que vous utilisez, vous pouvez accéder au serveur IP

Comment corriger l'erreur interdite Nginx 403? Vérifier les autorisations de fichier ou de répertoire; 2. Vérifier le fichier .htaccess; 3. Vérifiez le fichier de configuration NGINX; 4. Redémarrer Nginx. D'autres causes possibles incluent les règles de pare-feu, les paramètres de Selinux ou les problèmes d'application.

Réponse à la question: 304 Erreur non modifiée indique que le navigateur a mis en cache la dernière version de ressource de la demande du client. Solution: 1. Effacer le cache du navigateur; 2. Désactiver le cache du navigateur; 3. Configurer Nginx pour permettre le cache client; 4. Vérifier les autorisations du fichier; 5. Vérifier le hachage du fichier; 6. Désactiver le CDN ou le cache proxy inversé; 7. Redémarrez Nginx.

Le serveur n'a pas l'autorisation d'accéder à la ressource demandée, ce qui donne une erreur NGINX 403. Les solutions incluent: vérifier les autorisations de fichiers. Vérifiez la configuration .htaccess. Vérifiez la configuration de Nginx. Configurez les autorisations Selinux. Vérifiez les règles du pare-feu. Dépanner d'autres causes telles que les problèmes de navigateur, les défaillances du serveur ou d'autres erreurs possibles.
