localisation actuelle:Maison > Articles techniques > Opération et maintenance > Nginx
- Direction:
- tous web3.0 développement back-end interface Web base de données Opération et maintenance outils de développement cadre php programmation quotidienne Applet WeChat Problème commun autre technologie Tutoriel CMS Java Tutoriel système tutoriels informatiques Tutoriel matériel Tutoriel mobile Tutoriel logiciel Tutoriel de jeu mobile
- Classer:
-
- Quelles sont les méthodes pour forcer nginx à utiliser l'accès https ?
- L'idée de la méthode de réécriture de nginx Cela devrait être la méthode la plus simple à laquelle tout le monde peut penser. Réécrivez toutes les requêtes http en https via la réécriture pour configurer le serveur{listen111:80;server_nametestcom;rewrite^(*)$https://$host $1permanent;} Après avoir construit cet hôte virtuel, vous pouvez réécrire toutes les requêtes de http://test.com vers https://test.com et obtenir le code d'état 497 de nginx errorcode497497-normalrequestwassenttohtt
- Nginx 2400 2023-05-15 23:40:11
-
- Comment utiliser nginx pour mettre en cache des fichiers statiques sur le serveur
- 1. Avantages de la mise en cache nginx Comme le montre la figure, la mise en cache nginx peut, dans une certaine mesure, réduire la pression sur le serveur source lors du traitement des requêtes. Parce que de nombreux fichiers statiques (tels que CSS, JS, images) ne sont pas mis à jour fréquemment. nginx utilise proxy_cache pour mettre en cache les requêtes des utilisateurs dans un répertoire local. La même requête suivante peut appeler directement le fichier cache, sans avoir à solliciter le serveur. Après tout, le traitement des services gourmands en E/S est la force de nginx. 2. Comment configurer le premier châtaigne : http{proxy_connect_timeout10;proxy_read_timeout180;proxy_send_timeout5
- Nginx 1663 2023-05-15 23:37:04
-
- Comment configurer la limite actuelle d'achat urgent de Nginx
- Le code est le suivant : limit_req_zone$server_namezone=sname:10mrate=1r/s;#Limiter le serveur à un seul accès réussi par seconde#limit_req_zone$binary_remote_addrzone=one:3mrate=1r/s;#Limiter l'ip, un seul accès par second# limit_req_zone$binary_remote_addr$urizone=two:3mrate=1r/s;#Limit ip et path sans paramètres,#limit_req_zone$binary_remote_addr$re
- Nginx 1291 2023-05-15 22:58:10
-
- Comment configurer l'hôte virtuel Nginx
- 1. Configuration de l'hôte virtuel Nginx Hôte virtuel : Normalement, afin de rendre chaque serveur disponible à plus d'utilisateurs, un serveur peut être divisé en plusieurs sous-serveurs virtuels, et chaque sous-serveur est indépendant les uns des autres. Ces serveurs sont séparés en fonction de la technologie de virtualisation, de sorte qu'un serveur puisse être virtualisé en plusieurs sous-serveurs. Nous appelons le sous-serveur un hôte virtuel. Après avoir configuré le serveur Nginx, il n'y a qu'un seul serveur Nginx pour le moment. Si nous configurons l'hôte virtuel sur ce serveur, nous pouvons diviser un serveur Nginx en plusieurs sous-serveurs indépendants. Il y a deux étapes principales pour configurer un hôte virtuel dans Nginx : 1. Créer une adresse IP d'hôte virtuel via ifconf
- Nginx 2691 2023-05-15 22:46:04
-
- Comment configurer le format de journal Nginx
- Un petit programme de réservation est lancé et configuré pour accéder à l'entrée via Nginx. Le journal par défaut n'a pas de temps de demande, il doit donc être configuré pour enregistrer le temps de réponse d'accès de chaque demande pour référence et utilisation optimisée. Le format de journal par défaut est le suivant (le format par défaut est commenté et le système l'utilisera automatiquement) : #log_formatmain'$remote_addr-$remote_user[$time_local]"$request"'#'$status$body_bytes_sent"$http
- Nginx 2395 2023-05-15 22:43:12
-
- Comment déployer Django via Nginx basé sur Ubuntu
- 1. Installez nginx. Nginx est un serveur Web/proxy inverse léger et un serveur proxy de messagerie (imap/pop3), et est publié sous un protocole de type bsd. Ses caractéristiques sont qu'il occupe moins de mémoire et possède de fortes capacités de concurrence. En fait, les capacités de concurrence de nginx fonctionnent mieux entre les serveurs Web du même type. nginx est également un serveur Web très populaire actuellement. Nous donnerons également ici une brève introduction pour l'utiliser pour déployer Django. Site officiel de nginx : ouvrez la console Ubuntu (ctrl+alt+t) et utilisez l'entrepôt Ubuntu pour l'installer. fnngj@ubuntu : ~$sudoapt-getinstallngin
- Nginx 1480 2023-05-15 22:31:04
-
- Comment déployer nginx pour accéder aux projets construits par vue-cli
- La méthode spécifique est la suivante : 1. Créez l'objet serveur backend en amontmixVueServer{serverbaidu.com;#This est votre propre nom de domaine de serveur} 2. Créez le port d'accès et le serveur de règles de proxy inverse{listen8082;server_namelocalhost;location/{rootE : /mix_vue/dist;# Localiser le répertoire du projet#indexindex.htmlindex.htm;try_files$uri$uri//index.html;#Configurer selon les règles du site officiel}location~\.php${proxy_p
- Nginx 833 2023-05-15 22:25:16
-
- Comment résoudre l'erreur lorsque le service nginx démarre après le redémarrage de Linux : nginx : [emerg] open()
- Problème : Après le redémarrage de Linux, une erreur est signalée lors du démarrage du serveur nginx Solution : 1. Utilisez la commande cd/usr/local/nginx/conf pour accéder au répertoire spécifié 2. Utilisez la commande vinginx.conf pour modifier le fichier de configuration. et supprimez le signe # dans l'icône 3. Remplacez-le par pid /usr/local/nginx/logs/nginx.pid ;
- Nginx 2900 2023-05-15 22:16:13
-
- Comment configurer le cache de négociation du navigateur basé sur nginx
- La différence entre le cache fort et le cache négocié. Cache fort : Le navigateur accède directement au cache du navigateur sans négocier avec le serveur. Cache négocié : Le navigateur confirmera d'abord la validité de la ressource auprès du serveur avant de décider s'il doit récupérer la ressource depuis le serveur. mettre en cache ou réobtenir la ressource. Négocier Comment fonctionne la mise en cache : Il existe un scénario commercial comme celui-ci : les ressources statiques sur le backend seront mises à jour de temps en temps, et comme le navigateur utilise une mise en cache forte par défaut, les ressources obsolètes seront récupérées. du cache du navigateur par défaut. Nous voulons maintenant que le navigateur confirme avec le backend si la ressource a été mise à jour à chaque fois qu'il obtient la ressource, nous devons donc configurer le navigateur pour qu'il utilise le cache de négociation. Alors, comment le backend détermine-t-il si la ressource a été mise à jour ? À ce stade, les en-têtes de réponse etag et last-modified seront utilisés. à chaque fois
- Nginx 3064 2023-05-15 22:07:04
-
- Comment configurer WeCenter pseudo-statique dans l'environnement Nginx
- Placez le système de questions et réponses WeCenter dans le répertoire aks sous le répertoire racine du site et configurez le code d'exigence de pseudo-message comme suit : rewrite^([^\.]*)/ask/static/(.*)$$1/ask/static /$2last; réécrire^([^\.]*)/ask/uploads/(.*)$$1/ask/uploads/$2last;réécrire^([^\.]*)/ask/(.*) $$1/ask /index.php?/$2last;rewrite^([^\.]*)/ask/topic/(.*)$$1/ask/cnurl.phpl
- Nginx 728 2023-05-15 21:52:04
-
- Comment gérer le fait que Nginx supprime le corps du paquet http
- nginx rejette l'exemple de traitement du corps du package http explication détaillée Le framework http rejette le corps du package de requête http et l'article précédent Le framework http reçoit le corps du package sont deux méthodes fournies par le framework http pour que chaque module http appelle pour décider quoi faire avec le corps du package . Le choix de rejeter ou de recevoir est déterminé par le module. Par exemple, si le module de ressources statiques reçoit une requête get du navigateur et demande un fichier, il peut renvoyer directement le contenu du fichier au navigateur. Il n’est pas nécessaire de recevoir les données du corps du package et la requête get n’aura pas réellement de corps de package. Par conséquent, le module de ressources statiques appellera la fonction de suppression du corps du paquet fournie par le framework http pour effectuer le traitement de suppression des paquets. Comparée au processus de réception du corps d'emballage, l'opération de mise au rebut du corps d'emballage est beaucoup plus simple.
- Nginx 1328 2023-05-15 21:49:04
-
- Comment utiliser le proxy de transfert nginx pour transférer les noms de domaine intranet
- Dans l'environnement intranet du client, la connexion ppoe est utilisée pour accéder à Internet. Le fournisseur est un opérateur secondaire au sein du groupe. L'environnement réseau est relativement complexe. Le réseau interne du groupe et le réseau du bureau sont interconnectés à l'aide d'un protocole de routage statique. La situation générale est la suivante : il s'avère que le client accède aux activités de production. Ils y accèdent tous via des adresses IP. À mesure que de plus en plus de services de production sont produits, les clients exigent désormais fortement l'utilisation de noms de domaine pour accéder aux services. Cependant, compte tenu de la complexité de l'environnement intranet, il est difficile de déployer un serveur de noms de domaine, tout comme il est difficile de déployer des services d'accès. Plus tard, j'ai appris nginx et appris que nginx peut implémenter un proxy de transfert pour transférer les noms de domaine. Instructions : 1. Configurez la résolution du nom de domaine sur Alibaba Cloud. Par exemple, oa.xxxx.com, l'adresse de résolution est l'adresse intranet 172.31.101.362, 172.
- Nginx 3788 2023-05-15 21:46:04
-
- Comment utiliser Docker Compose pour implémenter l'équilibrage de charge nginx
- Utilisez la gestion du réseau Docker et les paramètres IP du conteneur comme connaissances de base pour implémenter l'équilibrage de charge nginx. introduction à composer, faire
- Nginx 1633 2023-05-15 21:37:12
-
- Comment utiliser Nginx pour limiter la fréquence d'accès, le taux de téléchargement et le nombre de connexions simultanées
- 1. Présentation des modules et des instructions utilisés pour limiter la fréquence d'accès, les connexions simultanées et la vitesse de téléchargement. ngx_http_limit_req_module : utilisé pour limiter le nombre de requêtes par unité de temps, c'est-à-dire la limite de débit, à l'aide de l'algorithme de compartiment à fuites "leakybucket" ngx_http_limit_conn_module : utilisé pour limiter les connexions en même temps Nombre, c'est-à-dire limite de concurrence limit_rate et limit_rate_after : réglage de la vitesse de téléchargement algorithme de seau qui fuit (leakybucket) L'idée de l'algorithme est la suivante : l'eau (demande) est versée dans le seau par le haut, s'écoule par le bas du seau ( traitée), et l'eau qui s'écoule trop tard est stockée dans le seau (tampon) et s'écoule à un débit fixe lorsque le seau est plein, l'eau ;
- Nginx 1690 2023-05-15 21:22:22
-
- Comment configurer les fonctions communes après l'installation de Nginx
- 1. Séparez le fichier de configuration principal de l'hôte virtuel. S'il existe de nombreux hôtes virtuels, il sera plus pratique de les séparer en fonction des fonctions et des services. Ce qui suit prend comme exemple deux hôtes virtuels. Complétez le fichier de configuration après avoir supprimé les lignes vides et les commentaires : [root@nginx-01conf]#egrep-v"#|^$"nginx.conf.bakworker_processes1;events{worker_connections1024;}http{includemime.types;default_typeapplication/octet-stream; envoyer
- Nginx 1146 2023-05-15 21:19:11