Nginx peut-il être clusterisé ?
Nginx peut-il être clusterisé ?
nginx atteint la haute disponibilité du cluster
Tout le monde sait que NGINX peut réaliser un équilibrage de charge en tant que serveur proxy inverse et peut également être utilisé comme serveur de fichiers statique. Ses caractéristiques Autrement dit, la prise en charge de la concurrence est importante et une seule machine peut prendre en charge 30 000 concurrences en même temps. Désormais, de nombreux sites Web utilisent NGINX comme passerelle d'entrée pour planifier et allouer uniformément les ressources back-end. Cependant, si NGINX tombe en panne, l'ensemble du service backend sera inutilisable ; ou lorsque la concurrence est très importante, atteignant le niveau de 100 000, il y a toujours une limite à un NGINX, donc à ce stade, il est nécessaire d'effectuer un master- le fonctionnement esclave sur NGINX Backup garantit une haute disponibilité des services et les clusters sont utilisés pour partager la pression de concurrence. Actuellement, NGINX propose principalement les solutions suivantes dans ces deux domaines, je vais vous les présenter respectivement :
Sauvegarde maître-esclave NGINX
NGINX implémente actuellement maître-esclave. sauvegarde La solution principale est Keepalived+Nginx pour réaliser une sauvegarde à chaud sur deux machines.
Introduction de Keepalived :
Keepalived est une solution de service à haute disponibilité basée sur le protocole VRRP, qui peut être utilisée pour éviter les points de défaillance uniques IP. Des outils similaires incluent Heartbeat, Corosync et Pacemaker. . Mais il n'apparaît généralement pas seul, mais fonctionne avec d'autres technologies d'équilibrage de charge (telles que lvs, haproxy, nginx) pour obtenir une haute disponibilité du cluster.
Protocole VRRP :
Le nom complet de VRRP est Virtual Router Redundancy Protocol, qui est le protocole de redondance du routeur virtuel. Il peut être considéré comme un protocole tolérant aux pannes pour obtenir une haute disponibilité des routeurs. N routeurs fournissant les mêmes fonctions sont constitués en un groupe de routeurs doté d'un maître et de plusieurs sauvegardes, mais il ressemble à un seul routeur vers le monde extérieur. , constituent un routeur virtuel, avec une IP virtuelle (vip, qui est la route par défaut des autres machines du LAN où se trouve le routeur). Le maître qui possède cette IP est en fait responsable de la réponse ARP et de la transmission des paquets de données IP, et les autres routeurs du groupe servent de rôles de secours. Le maître enverra des messages de multidiffusion. Lorsque la sauvegarde ne parvient pas à recevoir les paquets vrrp dans le délai d'attente, on considère que le maître est en panne. À ce moment, une sauvegarde doit être élue comme maître en fonction de la priorité VRRP pour garantir le fonctionnement. haute disponibilité du routeur.
Dans l'implémentation du protocole VRRP, le routeur virtuel utilise 00-00-5E-00-01-XX comme adresse MAC virtuelle. XX est l'unique VRID (Virtual Router IDentifier). routeur occupé en même temps. Dans le groupe de routeurs physiques du routeur virtuel, des messages de notification sont envoyés régulièrement via l'adresse IP de multidiffusion 224.0.0.18. Chaque routeur a un niveau de priorité compris entre 1 et 255, et la priorité la plus élevée deviendra le routeur maître. En abaissant la priorité du maître, le routeur en état de sauvegarde peut préempter (proempter) l'état du routeur principal. La plus grande des deux adresses IP avec la même priorité de sauvegarde est le maître et prend le relais de l'adresse IP virtuelle.
Principe spécifique d'implémentation :
1) Master n'est pas en panne, alors Master occupe VIP et nginx fonctionne sur Master
2) Master est en panne , Ensuite la sauvegarde s'empare du VIP et exécute le service nginx sur la sauvegarde
3) Si le service nginx sur le serveur maître se bloque, les ressources VIP sont transférées vers le serveur de sauvegarde
4) Détecter l'état de santé du serveur principal
Les services nginx maître et sauvegarde sont activés. Indépendamment du maître ou de la sauvegarde, lorsque l'un des services keepalived s'arrête, VIP dérivera vers le nœud où le service keepalived est toujours là.
Installation et configuration de NGINX et keepalived
Ils ont de nombreuses configurations d'installation, ainsi que l'écriture de scripts pour mettre en œuvre une surveillance mutuelle , alarmant, etc., nous donnerons donc une leçon spéciale. Cette leçon parle principalement de solutions et de principes.
Cluster distribué NGINX
Si vous souhaitez réaliser un équilibrage de charge sur plusieurs NGINX,
1 Chaque nginx a une adresse réseau publique en définissant plusieurs. les directions vers le même nom de domaine que le nom de domaine sont le moyen le plus simple de mettre en œuvre le round robin. Mais la coupure des fautes sera plus lente.
2. Un réseau public nginx distribue à plusieurs nginx sur l'intranet via la fonction en amont, la roue, l'IP et l'URL. Mais si nginx sur le réseau public tombe en panne, l’ensemble du réseau interne sera affecté.
3. Une paire de nginx de réseau public plus trois IP de réseau public, obtiennent une haute disponibilité via keepalive, puis en amont vers l'intranet (il s'agit de la sauvegarde maître-esclave dont nous venons de parler dans la section précédente).
De manière générale, les méthodes 1, 2 et 3 ci-dessus peuvent essentiellement résoudre le problème, et il est recommandé d'en utiliser 2 ou 3
Si la quantité de concurrence est vraiment énorme, en général ; vous devez utiliser du matériel F5 et d'autres équipements Pour effectuer l'équilibrage de charge, coopérer avec DNS, CDN et d'autres fournisseurs de services pour effectuer le transfert de résolution de nom de domaine et la configuration du cache. C'est également la configuration architecturale actuelle de la plupart des grands fabricants.
Pour plus d'articles techniques liés à Nginx, veuillez visiter la colonne Tutoriel d'utilisation de Nginx pour apprendre !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Comment configurer un nom de domaine NGINX sur un serveur cloud: Créez un enregistrement A pointant vers l'adresse IP publique du serveur cloud. Ajoutez des blocs d'hôtes virtuels dans le fichier de configuration Nginx, en spécifiant le port d'écoute, le nom de domaine et le répertoire racine du site Web. Redémarrez Nginx pour appliquer les modifications. Accéder à la configuration du test de nom de domaine. Autres notes: Installez le certificat SSL pour activer HTTPS, assurez-vous que le pare-feu autorise le trafic Port 80 et attendez que la résolution DNS prenne effet.

Comment confirmer si Nginx est démarré: 1. Utilisez la ligne de commande: SystemCTl Status Nginx (Linux / Unix), netStat -ano | Findstr 80 (Windows); 2. Vérifiez si le port 80 est ouvert; 3. Vérifiez le message de démarrage NGINX dans le journal système; 4. Utilisez des outils tiers, tels que Nagios, Zabbix et Icinga.

Étapes pour créer une image docker: écrivez un dockerfile qui contient les instructions de construction. Créez l'image dans le terminal, en utilisant la commande docker build. Marquez l'image et attribuez des noms et des balises à l'aide de la commande docker tag.

Les méthodes qui peuvent interroger la version Nginx sont: utilisez la commande nginx -v; Afficher la directive de version dans le fichier nginx.conf; Ouvrez la page d'erreur Nginx et affichez le titre de la page.

Le démarrage d'un serveur Nginx nécessite différentes étapes en fonction des différents systèmes d'exploitation: Système Linux / Unix: Installez le package NGINX (par exemple, en utilisant Apt-Get ou Yum). Utilisez SystemCTL pour démarrer un service NGINX (par exemple, sudo systemctl start nginx). Système Windows: téléchargez et installez les fichiers binaires Windows. Démarrer Nginx à l'aide de l'exécutable Nginx.exe (par exemple, nginx.exe -c conf \ nginx.conf). Peu importe le système d'exploitation que vous utilisez, vous pouvez accéder au serveur IP

Dans Linux, utilisez la commande suivante pour vérifier si Nginx est démarré: SystemCTL Status Nginx Juges Basé sur la sortie de la commande: si "Active: Active (Running)" s'affiche, Nginx est démarré. Si "Active: Inactive (Dead)" est affiché, Nginx est arrêté.

Étapes pour démarrer Nginx dans Linux: Vérifiez si Nginx est installé. Utilisez SystemCTL Start Nginx pour démarrer le service NGINX. Utilisez SystemCTL Activer Nginx pour activer le démarrage automatique de Nginx au démarrage du système. Utilisez SystemCTL Status Nginx pour vérifier que le démarrage est réussi. Visitez http: // localhost dans un navigateur Web pour afficher la page de bienvenue par défaut.

Comment corriger l'erreur interdite Nginx 403? Vérifier les autorisations de fichier ou de répertoire; 2. Vérifier le fichier .htaccess; 3. Vérifiez le fichier de configuration NGINX; 4. Redémarrer Nginx. D'autres causes possibles incluent les règles de pare-feu, les paramètres de Selinux ou les problèmes d'application.
