


Comment utiliser le serveur proxy Nginx dans Docker pour réaliser une expansion horizontale des services Web ?
Comment utiliser le serveur proxy Nginx dans Docker pour réaliser une expansion horizontale des services Web ?
Introduction :
Dans le développement de l'Internet actuel, la haute disponibilité et la haute efficacité sont au centre de chaque service Web. Afin de fournir des services fiables et d'atteindre une évolutivité horizontale, nous utilisons généralement des serveurs proxy pour équilibrer la charge des requêtes. En tant que technologie de conteneur légère et portable, Docker peut simplifier le processus de déploiement lors de la mise en œuvre de serveurs proxy. Cet article explique comment utiliser le serveur proxy Nginx dans Docker pour réaliser une expansion horizontale des services Web.
Première partie : Introduction théorique
- Serveur proxy Nginx :
Nginx est un serveur HTTP et proxy inverse hautes performances. Il est capable de gérer un grand nombre de connexions simultanées et consomme peu de mémoire. Nginx est capable de réaliser une mise à l'échelle horizontale des services en envoyant des requêtes à plusieurs serveurs backend et en les distribuant selon un algorithme d'équilibrage de charge. - Conteneurs Docker :
Docker est une technologie de virtualisation légère qui permet un déploiement et une portabilité rapides en empaquetant les applications et leurs dépendances dans des conteneurs. Chaque conteneur s'exécute indépendamment et peut être déployé sur n'importe quel hôte compatible Docker.
Deuxième partie : Procédure pas à pas pratique
Voici les étapes pour implémenter la mise à l'échelle horizontale des services Web à l'aide du serveur proxy Nginx dans Docker :
Étape 1 : Installer Docker et Docker Compose
Tout d'abord, nous devons installer Docker et Docker sur le hôte Composer. Pour les méthodes d'installation spécifiques, veuillez vous référer à la documentation officielle.
Étape 2 : Créer des services backend
Dans cet exemple, nous utiliserons deux services backend simples pour simuler le scénario réel. Créez deux dossiers pour stocker le code du service backend et écrivez un simple script de service Python comme suit :
// backend_service_1.py
from flask import Flask
app = Flask(__name__)
@app.route(' /')
def hello_world():
return 'Hello from Backend Service 1'
if name == '__main__':
app.run(debug=True, host='0.0.0.0')
// backend_service_2.py
from flask import Flask
app = Flask(__name__)
@app.route( '/')
def hello_world():
return 'Hello from Backend Service 2'
if name == '__main__':
app.run(debug=True, host='0.0.0.0')
Étape 3 : Créer un conteneur Docker
Avant de créer un conteneur Docker, nous devons écrire un fichier Docker utilisé pour construire le conteneur images. Créez un fichier nommé "Dockerfile" dans le dossier où le code du service backend est stocké et ajoutez le contenu suivant :
FROM python:3
WORKDIR /app
COPY exigences.txt .
RUN pip install -- no- cache-dir -r exigences.txt
COPY .
CMD [ "python", "./backend_service_1.py" ]
Dans le même dossier, créez un fichier nommé "requirements.txt" et ajoutez ce qui suit contenu :
flask==1.1.2
Répétez les étapes ci-dessus pour créer un conteneur Docker pour le service backend 2. Remplacez simplement la commande CMD dans le Dockerfile par :
CMD [ "python", "./backend_service_2.py" ]
Étape 4 : Créer un conteneur de serveur proxy Nginx
Créez un conteneur sur l'hôte nommé "docker-compose. yml " et ajoutez le contenu suivant :
version: '3'
services:
nginx:
image: nginx:stable-alpine ports: - 80:80 volumes: - ./nginx.conf:/etc/nginx/nginx.conf depends_on: - backend_service_1 - backend_service_2
backend_service_1:
build: context: ./backend_service_1 dockerfile: Dockerfile
backend_service_2:
build: context: ./backend_service_2 dockerfile: Dockerfile
Ensuite, créez un fichier nommé "nginx dans le même répertoire .conf" et ajoutez le contenu suivant :
worker_processes 1;
events {
worker_connections 1024;
}
http {
upstream backend { server backend_service_1:5000; server backend_service_2:5000; } server { listen 80; location / { proxy_pass http://backend; } }
}
Étape 5 : Démarrez le conteneur
Ouvrez un terminal et accédez au répertoire contenant les fichiers ci-dessus, puis exécutez la commande suivante :
$ docker-compose up
Cela démarrera le serveur proxy Nginx ainsi que les deux conteneurs de services backend.
Partie 3 : Tests
Maintenant, nous pouvons tester si le serveur proxy Nginx fonctionne correctement en visitant http://localhost. Chaque fois que vous actualisez la page, vous alternerez entre les deux services backend pour obtenir des réponses.
Partie 4 : Conclusion
En utilisant le serveur proxy Nginx dans Docker, nous pouvons réaliser une expansion horizontale des services Web. Cette approche simplifie non seulement le processus de déploiement, mais fournit également une solution hautement disponible et efficace. J'espère que cet article vous aidera à comprendre comment utiliser le serveur proxy Nginx dans Docker pour réaliser une expansion horizontale des services Web.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Explication détaillée et guide d'installation pour les nœuds de pignon Cet article introduira l'écosystème de pignon en détail - nœuds PI, un rôle clé dans l'écosystème de pignon et fournir des étapes complètes pour l'installation et la configuration. Après le lancement du réseau de test de la blockchain pèse, les nœuds PI sont devenus une partie importante de nombreux pionniers participant activement aux tests, se préparant à la prochaine version du réseau principal. Si vous ne connaissez pas encore Pinetwork, veuillez vous référer à ce qu'est Picoin? Quel est le prix de l'inscription? PI Utilisation, exploitation minière et sécurité. Qu'est-ce que Pinetwork? Le projet Pinetwork a commencé en 2019 et possède sa pièce exclusive de crypto-monnaie PI. Le projet vise à en créer un que tout le monde peut participer

Réponse : Les microservices PHP sont déployés avec HelmCharts pour un développement agile et conteneurisés avec DockerContainer pour l'isolation et l'évolutivité. Description détaillée : utilisez HelmCharts pour déployer automatiquement des microservices PHP afin de réaliser un développement agile. Les images Docker permettent une itération rapide et un contrôle de version des microservices. Le standard DockerContainer isole les microservices et Kubernetes gère la disponibilité et l'évolutivité des conteneurs. Utilisez Prometheus et Grafana pour surveiller les performances et l'état des microservices, et créer des alarmes et des mécanismes de réparation automatiques.

Il existe de nombreuses façons d'installer Deepseek, notamment: Compiler à partir de Source (pour les développeurs expérimentés) en utilisant des packages précompilés (pour les utilisateurs de Windows) à l'aide de conteneurs Docker (pour le plus pratique, pas besoin de s'inquiéter de la compatibilité), quelle que soit la méthode que vous choisissez, veuillez lire Les documents officiels documentent soigneusement et les préparent pleinement à éviter des problèmes inutiles.

Déployez des applications Java EE à l'aide de conteneurs Docker : créez un fichier Docker pour définir l'image, créez l'image, exécutez le conteneur et mappez le port, puis accédez à l'application dans le navigateur. Exemple d'application JavaEE : l'API REST interagit avec la base de données, accessible sur localhost après déploiement via Docker.

Réponse : Utilisez PHPCI/CD pour réaliser une itération rapide, y compris la configuration de pipelines CI/CD, de tests automatisés et de processus de déploiement. Configurer un pipeline CI/CD : sélectionnez un outil CI/CD, configurez le référentiel de code et définissez le pipeline de build. Tests automatisés : rédigez des tests unitaires et d'intégration et utilisez des frameworks de test pour simplifier les tests. Cas pratique : Utilisation de TravisCI : Installez TravisCI, définissez le pipeline, activez le pipeline et visualisez les résultats. Mettez en œuvre la livraison continue : sélectionnez les outils de déploiement, définissez les pipelines de déploiement et automatisez le déploiement. Avantages : améliorez l’efficacité du développement, réduisez les erreurs et raccourcissez les délais de livraison.

1. Tout d'abord, après avoir ouvert l'interface, cliquez sur le bouton icône d'extension à gauche 2. Ensuite, recherchez l'emplacement de la barre de recherche dans la page d'extension ouverte 3. Ensuite, entrez le mot Docker avec la souris pour trouver le plug-in d'extension 4. . Enfin, sélectionnez le plug-in cible et cliquez à droite. Cliquez simplement sur le bouton d'installation dans le coin inférieur.

Surveillance conteneurisée des microservices PHP et surveillance de la gestion des journaux : utilisez Prometheus et Grafana pour surveiller l'utilisation des ressources, le nombre de requêtes et la latence. Gestion des journaux : utilisez ELKStack (ElasticSearch, Logstash, Kibana) pour collecter, analyser et visualiser les journaux. Déployez l'agent Filebeat pour envoyer les journaux à ElasticSearch.

L'architecture des microservices utilise des frameworks PHP (tels que Symfony et Laravel) pour implémenter des microservices et suit les principes RESTful et les formats de données standard pour concevoir des API. Les microservices communiquent via des files d'attente de messages, des requêtes HTTP ou gRPC et utilisent des outils tels que Prometheus et ELKStack pour la surveillance et le dépannage.
