Maison Opération et maintenance Nginx Introduction aux principales fonctions de nginx

Introduction aux principales fonctions de nginx

Sep 14, 2020 am 11:42 AM
nginx

Introduction aux principales fonctions de nginx

Introduction aux principales fonctions de nginx :

(Tutoriel recommandé : Tutoriel nginx)

1. 🎜 >

Le proxy inverse devrait être la chose la plus courante que fait Nginx. Qu'est-ce qu'un proxy inverse ? Voici ce que dit l'Encyclopédie Baidu : La méthode du proxy inverse (Reverse Proxy) fait référence à l'utilisation d'un serveur proxy pour accepter le trafic Internet. La demande de connexion est ensuite transmise au serveur sur le réseau interne et le résultat obtenu du serveur est renvoyé au client demandant la connexion sur Internet. À ce moment, le serveur proxy apparaît comme un serveur proxy inverse pour le monde extérieur.

Pour faire simple, le serveur réel n'est pas directement accessible par le réseau externe, un serveur proxy est donc nécessaire. Le serveur proxy est accessible par le réseau externe et se trouve dans le même environnement réseau que le serveur réel. serveur Bien sûr, c'est également possible. Il s'agit du même serveur, juste des ports différents.

Un simple morceau de code pour implémenter le proxy inverse est collé ci-dessous :

server {  
      listen      80;                                                        
      server_name  localhost;                                              
      client_max_body_size 1024M;

      location / {
          proxy_pass http://localhost:8080;
          proxy_set_header Host $host:$server_port;
      }
  }
Copier après la connexion

Enregistrez le fichier de configuration et démarrez Nginx, de sorte que lorsque nous accédons à localhost, cela équivaut à accéder à localhost:8080.

2. Équilibrage de charge

L'équilibrage de charge est également une fonction couramment utilisée de Nginx pour allouer l'exécution à plusieurs unités d'exploitation, telles que : serveur Web, serveur FTP, application de clé d'entreprise. serveurs et autres serveurs critiques, etc., pour effectuer des tâches de travail ensemble.

Pour faire simple, lorsqu'il y a 2 serveurs ou plus, les requêtes sont distribuées aléatoirement au serveur désigné pour être traitées selon les règles. La configuration de l'équilibrage de charge nécessite généralement la configuration d'un proxy inverse en même temps, et le proxy inverse passe par le proxy inverse. Accédez à l'équilibrage de charge. Nginx prend actuellement en charge 3 stratégies d'équilibrage de charge intégrées, ainsi que 2 stratégies tierces couramment utilisées.

1. RR (par défaut)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
简单配置
  upstream test {
      server localhost:8080;
      server localhost:8081;
  }
  server {
      listen      81;                                                        
      server_name  localhost;                                              
      client_max_body_size 1024M;

      location / {
          proxy_pass http://test;
          proxy_set_header Host $host:$server_port;
      }
  }
Copier après la connexion

a configuré 2 serveurs Bien sûr, c'est en fait un, mais les ports sont différents, et le serveur 8081 n'existe pas, c'est à dire. Il n'est pas accessible, mais il n'y aura aucun problème lorsque nous accéderons à http://localhost. Il passera à http://localhost:8080 par défaut, car Nginx déterminera automatiquement l'état du serveur.

Si le serveur est inaccessible (le serveur est en panne), il ne passera pas à ce serveur, cela évite donc également la situation où un serveur est en panne et affecte l'utilisation puisque Nginx utilise par défaut la politique RR, nous Aucun paramètre supplémentaire n’est requis.

2. Poids

Spécifie la probabilité d'interrogation. Le poids est proportionnel au taux d'accès et est utilisé lorsque les performances du serveur back-end sont inégales.

Par exemple :

upstream test {
     server localhost:8080 weight=9;
     server localhost:8081 weight=1;
 }
Copier après la connexion

Alors généralement seulement 1 fois sur 10 accédera au 8081, et 9 fois accédera au 8080.

3. ip_hash

Les deux méthodes ci-dessus ont un problème, c'est-à-dire que lorsque la prochaine requête arrive, la requête peut être distribuée à un autre serveur, lorsque notre programme n'est pas apatride (using. session pour enregistrer les données), il y a un gros problème en ce moment. Par exemple, si les informations de connexion sont enregistrées dans la session, vous devez vous reconnecter lorsque vous passez à un autre serveur, nous avons donc souvent besoin d'un client. n'accède qu'à un seul serveur, alors iphash doit être utilisé.

Chaque requête d'iphash est allouée en fonction du résultat de hachage de l'IP d'accès, de sorte que chaque visiteur ait un accès fixe à un serveur back-end, ce qui peut résoudre le problème de session.

upstream test {
     ip_hash;
     server localhost:8080;
     server localhost:8081;
 }
Copier après la connexion

4. équitable (tiers)

Les requêtes sont allouées en fonction du temps de réponse du serveur backend, et celles avec des temps de réponse courts sont allouées en premier.

upstream backend { 
    fair; 
    server localhost:8080;
    server localhost:8081;
}
Copier après la connexion

5. url_hash (tiers)

Distribuez les requêtes en fonction du résultat de hachage de l'URL consultée, afin que chaque URL soit dirigée vers le même serveur back-end. lorsque le serveur back-end est mis en cache. Ajoutez une instruction de hachage en amont. D'autres paramètres tels que le poids ne peuvent pas être écrits dans l'instruction du serveur. Hash_method est l'algorithme de hachage utilisé.

upstream backend { 
    hash $request_uri; 
    hash_method crc32; 
    server localhost:8080;
    server localhost:8081;
}
Copier après la connexion

Les cinq types d'équilibrage de charge ci-dessus conviennent à une utilisation dans différentes situations, vous pouvez donc choisir le mode de stratégie à utiliser en fonction de la situation réelle. Cependant, fair et url_hash doivent installer des modules tiers pour. utiliser, car cet article présente principalement ce que Nginx peut faire. L'installation de modules tiers par Nginx ne sera donc pas présentée dans cet article.

3. Serveur HTTP

Nginx lui-même est également un serveur de ressources statiques. Lorsqu'il n'y a que des ressources statiques, vous pouvez utiliser Nginx comme serveur. maintenant pour séparer les ressources statiques des ressources statiques. Pour l'implémenter via Nginx, regardez d'abord Nginx en tant que serveur de ressources statiques.

  server {
      listen      80;                                                        
      server_name  localhost;                                              
      client_max_body_size 1024M;

      location / {
              root  e:\wwwroot;
              index  index.html;
          }
  }
Copier après la connexion

De cette façon, si vous accédez à http://localhost, vous accéderez par défaut au index.html sous le répertoire wwwroot du lecteur E. Si un site Web n'est qu'une page statique, alors il peut. être déployé de cette manière.

Séparation du contenu statique et dynamique

La séparation du contenu statique et dynamique permet aux pages Web dynamiques des sites Web dynamiques de distinguer les ressources constantes des ressources qui changent fréquemment selon certaines règles. , Nous pouvons mettre en cache les ressources statiques en fonction de leurs caractéristiques. C'est l'idée centrale du traitement statique des sites Web.

upstream test{  
      server localhost:8080;  
      server localhost:8081;  
  } 

  server {  
      listen      80;  
      server_name  localhost; 

      location / {  
          root  e:\wwwroot;  
          index  index.html;  
      } 

      # 所有静态请求都由nginx处理,存放目录为html  
      location ~ \.(gif|jpg|jpeg|png|bmp|swf|css|js)$ {  
          root    e:\wwwroot;  
      } 

      # 所有动态请求都转发给tomcat处理  
      location ~ \.(jsp|do)$ {  
          proxy_pass  http://test; 
      } 

      error_page  500 502 503 504  /50x.html;  
      location = /50x.html {  
          root  e:\wwwroot;  
      }  
  }
Copier après la connexion

这样我们就可以把HTML以及图片和css以及js放到wwwroot目录下,而tomcat只负责处理jsp和请求,
例如当我们后缀为gif的时候,Nginx默认会从wwwroot获取到当前请求的动态图文件返回,当然这里的静态文件跟Nginx是同一台服务器。

我们也可以在另外一台服务器,然后通过反向代理和负载均衡配置过去就好了,只要搞清楚了最基本的流程,很多配置就很简单了,另外localtion后面其实是一个正则表达式,所以非常灵活。

四、正向代理

正向代理,意思是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。客户端才能使用正向代理。

当你需要把你的服务器作为代理服务器的时候,可以用Nginx来实现正向代理,但是目前Nginx有一个问题,那么就是不支持HTTPS,虽然我百度到过配置HTTPS的正向代理,但是到最后发现还是代理不了,当然可能是我配置的不对。

  resolver 114.114.114.114 8.8.8.8;
  server {

      resolver_timeout 5s;

      listen 81;

      access_log  e:\wwwroot\proxy.access.log;
      error_log  e:\wwwroot\proxy.error.log;

      location / {
          proxy_pass http://$host$request_uri;
      }
  }
Copier après la connexion

resolver是配置正向代理的DNS服务器,listen 是正向代理的端口,配置好了就可以在ie上面或者其他代理插件上面使用服务器ip+端口号进行代理了。

注意:Nginx是支持热启动的,也就是说当我们修改配置文件后,不用关闭Nginx,就可以实现让配置生效。Nginx从新读取配置的命令是:nginx -s reload。

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Comment autoriser l'accès au réseau externe au serveur Tomcat Comment autoriser l'accès au réseau externe au serveur Tomcat Apr 21, 2024 am 07:22 AM

Pour permettre au serveur Tomcat d'accéder au réseau externe, vous devez : modifier le fichier de configuration Tomcat pour autoriser les connexions externes. Ajoutez une règle de pare-feu pour autoriser l'accès au port du serveur Tomcat. Créez un enregistrement DNS pointant le nom de domaine vers l'adresse IP publique du serveur Tomcat. Facultatif : utilisez un proxy inverse pour améliorer la sécurité et les performances. Facultatif : configurez HTTPS pour une sécurité accrue.

Comment exécuter thinkphp Comment exécuter thinkphp Apr 09, 2024 pm 05:39 PM

Étapes pour exécuter ThinkPHP Framework localement : Téléchargez et décompressez ThinkPHP Framework dans un répertoire local. Créez un hôte virtuel (facultatif) pointant vers le répertoire racine ThinkPHP. Configurez les paramètres de connexion à la base de données. Démarrez le serveur Web. Initialisez l'application ThinkPHP. Accédez à l'URL de l'application ThinkPHP et exécutez-la.

Bienvenue sur nginx !Comment le résoudre ? Bienvenue sur nginx !Comment le résoudre ? Apr 17, 2024 am 05:12 AM

Pour résoudre l'erreur "Bienvenue sur nginx!", vous devez vérifier la configuration de l'hôte virtuel, activer l'hôte virtuel, recharger Nginx, si le fichier de configuration de l'hôte virtuel est introuvable, créer une page par défaut et recharger Nginx, puis le message d'erreur. disparaîtra et le site Web sera affiché normalement.

Comment générer une URL à partir d'un fichier HTML Comment générer une URL à partir d'un fichier HTML Apr 21, 2024 pm 12:57 PM

La conversion d'un fichier HTML en URL nécessite un serveur Web, ce qui implique les étapes suivantes : Obtenir un serveur Web. Configurez un serveur Web. Téléchargez le fichier HTML. Créez un nom de domaine. Acheminez la demande.

Comment déployer le projet nodejs sur le serveur Comment déployer le projet nodejs sur le serveur Apr 21, 2024 am 04:40 AM

Étapes de déploiement de serveur pour un projet Node.js : Préparez l'environnement de déploiement : obtenez l'accès au serveur, installez Node.js, configurez un référentiel Git. Créez l'application : utilisez npm run build pour générer du code et des dépendances déployables. Téléchargez le code sur le serveur : via Git ou File Transfer Protocol. Installer les dépendances : connectez-vous en SSH au serveur et installez les dépendances de l'application à l'aide de npm install. Démarrez l'application : utilisez une commande telle que node index.js pour démarrer l'application ou utilisez un gestionnaire de processus tel que pm2. Configurer un proxy inverse (facultatif) : utilisez un proxy inverse tel que Nginx ou Apache pour acheminer le trafic vers votre application

Quelles sont les instructions les plus courantes dans un fichier docker Quelles sont les instructions les plus courantes dans un fichier docker Apr 07, 2024 pm 07:21 PM

Les instructions les plus couramment utilisées dans Dockerfile sont : FROM : créer une nouvelle image ou dériver une nouvelle image RUN : exécuter des commandes (installer le logiciel, configurer le système) COPY : copier des fichiers locaux dans l'image ADD : similaire à COPY, il peut automatiquement décompresser tar ou obtenir des fichiers URL CMD : Spécifiez la commande au démarrage du conteneur EXPOSE : Déclarez le port d'écoute du conteneur (mais pas public) ENV : Définissez la variable d'environnement VOLUME : Montez le répertoire hôte ou le volume anonyme WORKDIR : Définissez le répertoire de travail dans le conteneur ENTRYPOINT : spécifiez ce qu'il faut exécuter lorsque le conteneur démarre. Fichier exécutable (similaire à CMD, mais ne peut pas être écrasé)

Nodejs est-il accessible de l'extérieur ? Nodejs est-il accessible de l'extérieur ? Apr 21, 2024 am 04:43 AM

Oui, Node.js est accessible de l’extérieur. Vous pouvez utiliser les méthodes suivantes : Utilisez Cloud Functions pour déployer la fonction et la rendre accessible au public. Utilisez le framework Express pour créer des itinéraires et définir des points de terminaison. Utilisez Nginx pour inverser les requêtes de proxy vers les applications Node.js. Utilisez des conteneurs Docker pour exécuter des applications Node.js et les exposer via le mappage de ports.

Comment déployer et maintenir un site Web en utilisant PHP Comment déployer et maintenir un site Web en utilisant PHP May 03, 2024 am 08:54 AM

Pour déployer et maintenir avec succès un site Web PHP, vous devez effectuer les étapes suivantes : Sélectionnez un serveur Web (tel qu'Apache ou Nginx) Installez PHP Créez une base de données et connectez PHP Téléchargez le code sur le serveur Configurez le nom de domaine et la maintenance du site Web de surveillance DNS les étapes comprennent la mise à jour de PHP et des serveurs Web, la sauvegarde du site Web, la surveillance des journaux d'erreurs et la mise à jour du contenu.

See all articles