Maison Opération et maintenance Nginx Comment réaliser la séparation front-end et back-end dans la base de données de génération inverse Nginx

Comment réaliser la séparation front-end et back-end dans la base de données de génération inverse Nginx

Jun 10, 2023 pm 12:01 PM
nginx 前后端分离 反代

Avec le développement rapide de la technologie Internet, l'idée de séparation front-end et back-end est de plus en plus largement utilisée par les développeurs. La séparation du front-end et du back-end peut séparer et mettre en parallèle le développement du front-end et du back-end, améliorer l'efficacité du développement, réduire la complexité du développement et améliorer les performances et l'évolutivité du système.

Dans l'architecture où le front-end et le back-end sont séparés, le front-end demande des données au back-end via l'interface, et le back-end traite les données demandées puis les renvoie au front-end. Dans ce processus, Nginx peut jouer un rôle dans la transmission et le transfert de données via la technologie de proxy inverse. Cet article explique comment réaliser la séparation front-end et back-end dans la base de données de génération inverse Nginx.

1. Base de données proxy inverse Nginx

Dans l'architecture de séparation front-end et back-end, le front-end demande des données au back-end via l'interface et traite les données renvoyées. Si la base de données est directement exposée au réseau public, les risques de sécurité seront importants. Par conséquent, nous devons utiliser la technologie de proxy inverse pour proxy le processus de transmission de données afin de garantir la sécurité.

Dans Nginx, la base de données proxy inverse peut être implémentée via la configuration suivante :

location /api/ {
    proxy_pass http://localhost:8080;
}
Copier après la connexion

La signification de cette configuration est que lorsque le front-end envoie une requête au chemin "/api/", Nginx transmettra la requête au port local 8080, et les données renvoyées par le backend sont renvoyées au frontend. De cette manière, la sécurité de la base de données peut être garantie.

2. Équilibrage de charge de génération inverse Nginx

Dans les applications réelles, si la charge sur un seul serveur backend est trop importante, le temps de réponse du serveur ralentira ou même plantera. Par conséquent, la technologie d'équilibrage de charge de génération inverse Nginx doit être utilisée pour équilibrer la charge du serveur backend.

La configuration de l'équilibrage de charge de Nginx est la suivante :

upstream backend {
    server 127.0.0.1:8080;
    server 127.0.0.1:8081;
}

server {
    listen 80;
    server_name localhost;

    location /api/ {
        proxy_pass http://backend;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    }
}
Copier après la connexion

Cette configuration consiste à transmettre la requête à l'un des clusters de serveurs back-end Lorsqu'un des serveurs est occupé ou a un problème, il bascule automatiquement vers un autre. serveur.

3. Cache de génération inverse Nginx

Dans une architecture où le front-end et le back-end sont séparés, le front-end doit envoyer fréquemment des requêtes au back-end pour obtenir des données si chaque requête nécessite une nouvelle requête. lire les données de la base de données, beaucoup de temps et de ressources seront perdus. À l'heure actuelle, vous devez utiliser la fonction de mise en cache de génération inverse de Nginx pour mettre en cache les données fréquemment utilisées afin d'améliorer la vitesse de réponse et les performances du système.

La configuration du cache de Nginx est la suivante :

proxy_cache_path /var/cache/nginx levels=1:2 keys_zone=my_cache:10m inactive=60m;
server {
    listen 80;
    server_name localhost;

    location /api/ {
        proxy_pass http://backend;
        proxy_cache my_cache;
        proxy_cache_valid 200 60m;
        proxy_cache_valid 404 1m;
        proxy_cache_bypass $http_pragma;
        proxy_cache_revalidate on;
        proxy_cache_min_uses 2;
        proxy_cache_lock on;
    }
}
Copier après la connexion

La signification de cette configuration est de mettre en cache les données dans une zone de cache de 10 Mo. S'il n'y a pas de demande de données mises en cache dans un certain laps de temps, le cache expirera et le cache sera supprimé. effacé. Dans le même temps, vous pouvez spécifier la durée du cache de différents codes d'état via proxy_cache_valid, et vous pouvez également contrôler les mises à jour du cache via proxy_cache_bypass.

4. HTTPS de génération inverse Nginx

Dans l'architecture de séparation front-end et back-end, compte tenu de la sécurité de la transmission des données, HTTP doit être mis à niveau vers HTTPS. Dans Nginx, vous pouvez implémenter le proxy inverse HTTPS via la configuration suivante :

server {
    listen 443;
    server_name localhost;

    ssl on;
    ssl_certificate /etc/nginx/cert.pem;
    ssl_certificate_key /etc/nginx/key.pem;
    ssl_session_timeout 5m;

    location /api/ {
        proxy_pass http://backend;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    }
}
Copier après la connexion

La signification de cette configuration est d'écouter le port 443, d'activer la configuration SSL et de configurer les certificats et les clés en même temps. Dans le même temps, lors du proxy d'une requête, vous devez définir les en-têtes pertinents.

Résumé

Dans l'architecture de séparation front-end et back-end, Nginx joue un rôle très important grâce à des fonctions telles que la technologie de proxy inverse, l'équilibrage de charge, la mise en cache et HTTPS, il réalise la transmission sécurisée des données et améliore l'évolutivité. du système. Nginx est un serveur proxy inverse très flexible et puissant qui peut effectuer une variété de tâches et de scénarios d'application différents.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
2 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Repo: Comment relancer ses coéquipiers
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Comment obtenir des graines géantes
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Combien de temps faut-il pour battre Split Fiction?
3 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Comment autoriser l'accès au réseau externe au serveur Tomcat Comment autoriser l'accès au réseau externe au serveur Tomcat Apr 21, 2024 am 07:22 AM

Pour permettre au serveur Tomcat d'accéder au réseau externe, vous devez : modifier le fichier de configuration Tomcat pour autoriser les connexions externes. Ajoutez une règle de pare-feu pour autoriser l'accès au port du serveur Tomcat. Créez un enregistrement DNS pointant le nom de domaine vers l'adresse IP publique du serveur Tomcat. Facultatif : utilisez un proxy inverse pour améliorer la sécurité et les performances. Facultatif : configurez HTTPS pour une sécurité accrue.

Quelles sont les commandes de démarrage et d'arrêt de nginx ? Quelles sont les commandes de démarrage et d'arrêt de nginx ? Apr 02, 2024 pm 08:45 PM

Les commandes de démarrage et d'arrêt de Nginx sont respectivement nginx et nginx -s quit. La commande start démarre directement le serveur, tandis que la commande stop arrête le serveur en douceur, permettant ainsi de traiter toutes les requêtes en cours. Les autres signaux d'arrêt disponibles incluent l'arrêt et le rechargement.

Comment exécuter thinkphp Comment exécuter thinkphp Apr 09, 2024 pm 05:39 PM

Étapes pour exécuter ThinkPHP Framework localement : Téléchargez et décompressez ThinkPHP Framework dans un répertoire local. Créez un hôte virtuel (facultatif) pointant vers le répertoire racine ThinkPHP. Configurez les paramètres de connexion à la base de données. Démarrez le serveur Web. Initialisez l'application ThinkPHP. Accédez à l'URL de l'application ThinkPHP et exécutez-la.

Bienvenue sur nginx !Comment le résoudre ? Bienvenue sur nginx !Comment le résoudre ? Apr 17, 2024 am 05:12 AM

Pour résoudre l'erreur "Bienvenue sur nginx!", vous devez vérifier la configuration de l'hôte virtuel, activer l'hôte virtuel, recharger Nginx, si le fichier de configuration de l'hôte virtuel est introuvable, créer une page par défaut et recharger Nginx, puis le message d'erreur. disparaîtra et le site Web sera affiché normalement.

Comment déployer le projet nodejs sur le serveur Comment déployer le projet nodejs sur le serveur Apr 21, 2024 am 04:40 AM

Étapes de déploiement de serveur pour un projet Node.js : Préparez l'environnement de déploiement : obtenez l'accès au serveur, installez Node.js, configurez un référentiel Git. Créez l'application : utilisez npm run build pour générer du code et des dépendances déployables. Téléchargez le code sur le serveur : via Git ou File Transfer Protocol. Installer les dépendances : connectez-vous en SSH au serveur et installez les dépendances de l'application à l'aide de npm install. Démarrez l'application : utilisez une commande telle que node index.js pour démarrer l'application ou utilisez un gestionnaire de processus tel que pm2. Configurer un proxy inverse (facultatif) : utilisez un proxy inverse tel que Nginx ou Apache pour acheminer le trafic vers votre application

Comment s'inscrire à phpmyadmin Comment s'inscrire à phpmyadmin Apr 07, 2024 pm 02:45 PM

Pour vous inscrire à phpMyAdmin, vous devez d'abord créer un utilisateur MySQL et lui accorder des autorisations, puis télécharger, installer et configurer phpMyAdmin, et enfin vous connecter à phpMyAdmin pour gérer la base de données.

Comment résoudre le problème de nginx lors de l'accès au site Web Comment résoudre le problème de nginx lors de l'accès au site Web Apr 02, 2024 pm 08:39 PM

nginx apparaît lors de l'accès au site Web. Les raisons peuvent être : maintenance du serveur, serveur occupé, cache du navigateur, problèmes DNS, blocage du pare-feu, mauvaise configuration du site Web, problèmes de connexion réseau ou site Web en panne. Essayez les solutions suivantes : attendez la fin de la maintenance, visitez pendant les heures creuses, videz le cache de votre navigateur, videz votre cache DNS, désactivez le pare-feu ou le logiciel antivirus, contactez l'administrateur du site, vérifiez votre connexion réseau ou utilisez un moteur de recherche ou archive Web pour trouver une autre copie du site. Si le problème persiste, veuillez contacter l'administrateur du site.

Comment communiquer entre les conteneurs Docker Comment communiquer entre les conteneurs Docker Apr 07, 2024 pm 06:24 PM

Il existe cinq méthodes de communication de conteneur dans l'environnement Docker : réseau partagé, Docker Compose, proxy réseau, volume partagé et file d'attente de messages. En fonction de vos besoins d'isolation et de sécurité, choisissez la méthode de communication la plus appropriée, par exemple en utilisant Docker Compose pour simplifier les connexions ou en utilisant un proxy réseau pour augmenter l'isolation.

See all articles