Avec le développement rapide de la technologie Internet, l'idée de séparation front-end et back-end est de plus en plus largement utilisée par les développeurs. La séparation du front-end et du back-end peut séparer et mettre en parallèle le développement du front-end et du back-end, améliorer l'efficacité du développement, réduire la complexité du développement et améliorer les performances et l'évolutivité du système.
Dans l'architecture où le front-end et le back-end sont séparés, le front-end demande des données au back-end via l'interface, et le back-end traite les données demandées puis les renvoie au front-end. Dans ce processus, Nginx peut jouer un rôle dans la transmission et le transfert de données via la technologie de proxy inverse. Cet article explique comment réaliser la séparation front-end et back-end dans la base de données de génération inverse Nginx.
1. Base de données proxy inverse Nginx
Dans l'architecture de séparation front-end et back-end, le front-end demande des données au back-end via l'interface et traite les données renvoyées. Si la base de données est directement exposée au réseau public, les risques de sécurité seront importants. Par conséquent, nous devons utiliser la technologie de proxy inverse pour proxy le processus de transmission de données afin de garantir la sécurité.
Dans Nginx, la base de données proxy inverse peut être implémentée via la configuration suivante :
location /api/ { proxy_pass http://localhost:8080; }
La signification de cette configuration est que lorsque le front-end envoie une requête au chemin "/api/", Nginx transmettra la requête au port local 8080, et les données renvoyées par le backend sont renvoyées au frontend. De cette manière, la sécurité de la base de données peut être garantie.
2. Équilibrage de charge de génération inverse Nginx
Dans les applications réelles, si la charge sur un seul serveur backend est trop importante, le temps de réponse du serveur ralentira ou même plantera. Par conséquent, la technologie d'équilibrage de charge de génération inverse Nginx doit être utilisée pour équilibrer la charge du serveur backend.
La configuration de l'équilibrage de charge de Nginx est la suivante :
upstream backend { server 127.0.0.1:8080; server 127.0.0.1:8081; } server { listen 80; server_name localhost; location /api/ { proxy_pass http://backend; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } }
Cette configuration consiste à transmettre la requête à l'un des clusters de serveurs back-end Lorsqu'un des serveurs est occupé ou a un problème, il bascule automatiquement vers un autre. serveur.
3. Cache de génération inverse Nginx
Dans une architecture où le front-end et le back-end sont séparés, le front-end doit envoyer fréquemment des requêtes au back-end pour obtenir des données si chaque requête nécessite une nouvelle requête. lire les données de la base de données, beaucoup de temps et de ressources seront perdus. À l'heure actuelle, vous devez utiliser la fonction de mise en cache de génération inverse de Nginx pour mettre en cache les données fréquemment utilisées afin d'améliorer la vitesse de réponse et les performances du système.
La configuration du cache de Nginx est la suivante :
proxy_cache_path /var/cache/nginx levels=1:2 keys_zone=my_cache:10m inactive=60m; server { listen 80; server_name localhost; location /api/ { proxy_pass http://backend; proxy_cache my_cache; proxy_cache_valid 200 60m; proxy_cache_valid 404 1m; proxy_cache_bypass $http_pragma; proxy_cache_revalidate on; proxy_cache_min_uses 2; proxy_cache_lock on; } }
La signification de cette configuration est de mettre en cache les données dans une zone de cache de 10 Mo. S'il n'y a pas de demande de données mises en cache dans un certain laps de temps, le cache expirera et le cache sera supprimé. effacé. Dans le même temps, vous pouvez spécifier la durée du cache de différents codes d'état via proxy_cache_valid, et vous pouvez également contrôler les mises à jour du cache via proxy_cache_bypass.
4. HTTPS de génération inverse Nginx
Dans l'architecture de séparation front-end et back-end, compte tenu de la sécurité de la transmission des données, HTTP doit être mis à niveau vers HTTPS. Dans Nginx, vous pouvez implémenter le proxy inverse HTTPS via la configuration suivante :
server { listen 443; server_name localhost; ssl on; ssl_certificate /etc/nginx/cert.pem; ssl_certificate_key /etc/nginx/key.pem; ssl_session_timeout 5m; location /api/ { proxy_pass http://backend; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } }
La signification de cette configuration est d'écouter le port 443, d'activer la configuration SSL et de configurer les certificats et les clés en même temps. Dans le même temps, lors du proxy d'une requête, vous devez définir les en-têtes pertinents.
Résumé
Dans l'architecture de séparation front-end et back-end, Nginx joue un rôle très important grâce à des fonctions telles que la technologie de proxy inverse, l'équilibrage de charge, la mise en cache et HTTPS, il réalise la transmission sécurisée des données et améliore l'évolutivité. du système. Nginx est un serveur proxy inverse très flexible et puissant qui peut effectuer une variété de tâches et de scénarios d'application différents.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!