Heim > Betrieb und Instandhaltung > Nginx > Einführung in die Hauptfunktionen von Nginx

Einführung in die Hauptfunktionen von Nginx

王林
Freigeben: 2020-09-14 11:42:37
nach vorne
4602 Leute haben es durchsucht

Einführung in die Hauptfunktionen von Nginx

nginx-Hauptfunktionseinführung:

(Empfohlenes Tutorial: nginx-Tutorial)

1. Reverse-Proxy

Reverse-Proxy sollte das Einzige sein, was Nginx am meisten kann Folgendes sagt die Baidu-Enzyklopädie: Die Reverse-Proxy-Methode (Reverse Proxy) bezieht sich auf die Verwendung eines Proxyservers, um Verbindungsanfragen im Internet zu akzeptieren, die Anfrage dann an den Server im internen Netzwerk weiterzuleiten und die vom Server erhaltenen Ergebnisse zurückzugeben. Für den Client, der eine Verbindung im Internet anfordert, erscheint der Proxy-Server nach außen hin als Reverse-Proxy-Server.

Um es einfach auszudrücken: Auf den realen Server kann nicht direkt über das externe Netzwerk zugegriffen werden. Daher ist ein Proxyserver erforderlich, auf den über das externe Netzwerk zugegriffen werden kann und der sich natürlich in derselben Netzwerkumgebung befindet wie der reale Server , es kann auch derselbe Server sein, die Ports sind nur unterschiedlich.

Veröffentlichen Sie unten einen einfachen Code zur Implementierung des Reverse-Proxys:

server {  
      listen      80;                                                        
      server_name  localhost;                                              
      client_max_body_size 1024M;

      location / {
          proxy_pass http://localhost:8080;
          proxy_set_header Host $host:$server_port;
      }
  }
Nach dem Login kopieren

Starten Sie Nginx nach dem Speichern der Konfigurationsdatei, sodass der Zugriff auf localhost dem Zugriff auf localhost:8080 entspricht.

2. Lastausgleich

Der Lastausgleich ist auch eine häufig verwendete Funktion von Nginx, um die Ausführung mehreren Betriebseinheiten zuzuweisen, z. B. Webservern, FTP-Servern, Unternehmensschlüsselanwendungsservern und anderen geschäftskritischen Servern. usw., um die Arbeitsaufgaben gemeinsam zu erledigen.

Einfach ausgedrückt: Wenn zwei oder mehr Server vorhanden sind, werden Anforderungen zur Verarbeitung gemäß den Regeln zufällig an den angegebenen Server verteilt. Die Konfiguration des Lastausgleichs erfordert im Allgemeinen gleichzeitig die Konfiguration eines Reverse-Proxys und springt zum Lastausgleich über den Reverse-Proxy. Nginx unterstützt derzeit drei integrierte Lastausgleichsstrategien sowie zwei häufig verwendete Strategien von Drittanbietern.

1. RR (Standard)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
简单配置
  upstream test {
      server localhost:8080;
      server localhost:8081;
  }
  server {
      listen      81;                                                        
      server_name  localhost;                                              
      client_max_body_size 1024M;

      location / {
          proxy_pass http://test;
          proxy_set_header Host $host:$server_port;
      }
  }
Nach dem Login kopieren
ist mit 2 Servern konfiguriert, aber die Ports sind nicht vorhanden, was bedeutet, dass wir nicht auf http zugreifen können Bei Verwendung von „://localhost“ stellt dies kein Problem dar. Es wird standardmäßig zu „http://localhost:8080“ gesprungen. Dies liegt daran, dass Nginx den Status des Servers automatisch ermittelt.

Wenn auf den Server nicht zugegriffen werden kann (der Server ist ausgefallen), wird nicht zu diesem Server gesprungen, sodass auch die Situation vermieden wird, in der ein Server ausfällt und die Verwendung beeinträchtigt wird. Da Nginx standardmäßig die RR-Richtlinie verwendet, ist dies nicht erforderlich um weitere Änderungen vorzunehmen.

2. Gewichtung

Gibt die Abfragewahrscheinlichkeit an. Die Gewichtung ist proportional zum Zugriffsverhältnis und wird verwendet, wenn die Back-End-Serverleistung ungleichmäßig ist.

Zum Beispiel:

upstream test {
     server localhost:8080 weight=9;
     server localhost:8081 weight=1;
 }
Nach dem Login kopieren

Dann wird im Allgemeinen nur 1 Mal von 10 Malen auf 8081 zugegriffen, und 9 Mal wird auf 8080 zugegriffen.

3. ip_hash

Die beiden oben genannten Methoden haben ein Problem, das heißt, wenn die nächste Anfrage eingeht, wird die Anfrage möglicherweise an einen anderen Server verteilt (Sitzung wird zum Speichern von Daten verwendet). Wenn beispielsweise die Anmeldeinformationen in der Sitzung gespeichert werden, müssen wir uns oft erneut anmelden, wenn wir zu einem anderen Server wechseln iphash verwenden.

Jede Iphash-Anfrage wird entsprechend dem Hash-Ergebnis der Zugriffs-IP zugewiesen, sodass jeder Besucher festen Zugriff auf einen Back-End-Server hat, der das Sitzungsproblem lösen kann.

upstream test {
     ip_hash;
     server localhost:8080;
     server localhost:8081;
 }
Nach dem Login kopieren

4. Fair (Dritter)

Anfragen entsprechend der Antwortzeit des Backend-Servers zuweisen, und diejenigen mit kurzen Antwortzeiten werden zuerst zugewiesen.

upstream backend { 
    fair; 
    server localhost:8080;
    server localhost:8081;
}
Nach dem Login kopieren

5. url_hash (Dritter)

Anfragen entsprechend dem Hash-Ergebnis der aufgerufenen URL verteilen, sodass jede URL an denselben Back-End-Server weitergeleitet wird. Dies ist effektiver, wenn der Back-End-Server zwischengespeichert wird . Fügen Sie dem Upstream eine Hash-Anweisung hinzu, z. B. das Gewicht. Hash_method ist der verwendete Hash-Algorithmus.

upstream backend { 
    hash $request_uri; 
    hash_method crc32; 
    server localhost:8080;
    server localhost:8081;
}
Nach dem Login kopieren

Die oben genannten 5 Arten des Lastausgleichs eignen sich für den Einsatz in verschiedenen Situationen, sodass Sie je nach tatsächlicher Situation auswählen können, welchen Strategiemodus Sie verwenden möchten. Seitdem müssen jedoch Module von Drittanbietern installiert werden Der Artikel stellt hauptsächlich vor, was Nginx kann, daher wird die Nginx-Installation von Modulen von Drittanbietern in diesem Artikel nicht vorgestellt.

3. HTTP-Server

Nginx selbst ist auch ein statischer Ressourcenserver. Wenn nur statische Ressourcen vorhanden sind, können Sie Nginx auch als Server verwenden. was durch Nginx erreicht werden kann. Werfen wir zunächst einen Blick darauf, dass Nginx als statischer Ressourcenserver dient.

  server {
      listen      80;                                                        
      server_name  localhost;                                              
      client_max_body_size 1024M;

      location / {
              root  e:\wwwroot;
              index  index.html;
          }
  }
Nach dem Login kopieren

Wenn Sie auf http://localhost zugreifen, greifen Sie standardmäßig auf die Datei index.html im wwwroot-Verzeichnis des Laufwerks E zu. Wenn eine Website nur eine statische Seite ist, kann sie dort bereitgestellt werden Weg.

Trennung dynamischer und statischer Ressourcen

Die Trennung dynamischer und statischer Ressourcen ermöglicht es dynamischen Webseiten in dynamischen Websites, konstante Ressourcen von sich häufig ändernden Ressourcen gemäß bestimmten Regeln zu unterscheiden. Nachdem dynamische und statische Ressourcen aufgeteilt wurden, können wir die Eigenschaften von verwenden Die Unterscheidung zwischen statischen Ressourcen ist die Kernidee der statischen Website-Verarbeitung.

upstream test{  
      server localhost:8080;  
      server localhost:8081;  
  } 

  server {  
      listen      80;  
      server_name  localhost; 

      location / {  
          root  e:\wwwroot;  
          index  index.html;  
      } 

      # 所有静态请求都由nginx处理,存放目录为html  
      location ~ \.(gif|jpg|jpeg|png|bmp|swf|css|js)$ {  
          root    e:\wwwroot;  
      } 

      # 所有动态请求都转发给tomcat处理  
      location ~ \.(jsp|do)$ {  
          proxy_pass  http://test; 
      } 

      error_page  500 502 503 504  /50x.html;  
      location = /50x.html {  
          root  e:\wwwroot;  
      }  
  }
Nach dem Login kopieren

这样我们就可以把HTML以及图片和css以及js放到wwwroot目录下,而tomcat只负责处理jsp和请求,
例如当我们后缀为gif的时候,Nginx默认会从wwwroot获取到当前请求的动态图文件返回,当然这里的静态文件跟Nginx是同一台服务器。

我们也可以在另外一台服务器,然后通过反向代理和负载均衡配置过去就好了,只要搞清楚了最基本的流程,很多配置就很简单了,另外localtion后面其实是一个正则表达式,所以非常灵活。

四、正向代理

正向代理,意思是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。客户端才能使用正向代理。

当你需要把你的服务器作为代理服务器的时候,可以用Nginx来实现正向代理,但是目前Nginx有一个问题,那么就是不支持HTTPS,虽然我百度到过配置HTTPS的正向代理,但是到最后发现还是代理不了,当然可能是我配置的不对。

  resolver 114.114.114.114 8.8.8.8;
  server {

      resolver_timeout 5s;

      listen 81;

      access_log  e:\wwwroot\proxy.access.log;
      error_log  e:\wwwroot\proxy.error.log;

      location / {
          proxy_pass http://$host$request_uri;
      }
  }
Nach dem Login kopieren

resolver是配置正向代理的DNS服务器,listen 是正向代理的端口,配置好了就可以在ie上面或者其他代理插件上面使用服务器ip+端口号进行代理了。

注意:Nginx是支持热启动的,也就是说当我们修改配置文件后,不用关闭Nginx,就可以实现让配置生效。Nginx从新读取配置的命令是:nginx -s reload。

Das obige ist der detaillierte Inhalt vonEinführung in die Hauptfunktionen von Nginx. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:csdn.net
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage