Gemeinsame Konfigurationselemente
Bei der Arbeit beschäftigen wir uns hauptsächlich mit Nginx über seine Konfigurationsdateien. Dann ist es notwendig, die jeweiligen Funktionen dieser Konfigurationselemente zu verstehen. (Verwandte Empfehlungen: Linux Tutorial)
Zuallererst sieht der Inhalt von nginx.conf normalerweise so aus:
... ... #核心摸块 events { #事件模块 ... } http { # http 模块 server { # server块 location [PATTERN] { # location块 ... } location [PATTERN] { ... } } server { ... } } mail { # mail 模块 server { # server块 ... } }
Schauen wir uns das an jedes nacheinander Welche Konfigurationselemente haben Module im Allgemeinen?
Kernmodul
user admin; #配置用户或者组 worker_processes 4; #允许生成的进程数,默认为1 pid /nginx/pid/nginx.pid; #指定 nginx 进程运行文件存放地址 error_log log/error.log debug; #错误日志路径,级别
Veranstaltungsmodul
events { accept_mutex on; #设置网路连接序列化,防止惊群现象发生,默认为on multi_accept on; #设置一个进程是否同时接受多个网络连接,默认为off use epoll; #事件驱动模型select|poll|kqueue|epoll|resig worker_connections 1024; #最大连接数,默认为512 }
http-Modul
http { include mime.types; #文件扩展名与文件类型映射表 default_type application/octet-stream; #默认文件类型,默认为text/plain access_log off; #取消服务日志 sendfile on; #允许 sendfile 方式传输文件,默认为off,可以在http块,server块,location块 sendfile_max_chunk 100k; #每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限 keepalive_timeout 65; #连接超时时间,默认为75s,可以在http,server,location块 server { keepalive_requests 120; #单连接请求上限次数 listen 80; #监听端口 server_name 127.0.0.1; #监听地址 index index.html index.htm index.php; root your_path; #根目录 location ~ \.php$ { fastcgi_pass unix:/var/run/php/php7.1-fpm.sock; #fastcgi_pass 127.0.0.1:9000; fastcgi_index index.php; include fastcgi_params; } } }
Konfigurationselementanalyse
worker_processes
worker_processes wird verwendet, um die Anzahl der Prozesse für den Nginx-Dienst festzulegen. Dieser Wert ist die empfohlene Anzahl von CPU-Kernen.
worker_cpu_affinity*
worker_cpu_affinity wird verwendet, um den Arbeitskern der CPU jedem Prozess zuzuordnen. Die Parameter werden durch mehrere Binärwerte dargestellt. Jede Gruppe stellt die CPU-Auslastung des Prozesses dar, 1 steht für die Nutzung und 0 steht für die Nichtnutzung. Daher verwenden wir worker_cpu_affinity0001001001001000, um Prozesse an verschiedene Kerne zu binden. Standardmäßig sind Arbeitsprozesse nicht an eine CPU gebunden.
worker_rlimit_nofile
Legen Sie die maximale Anzahl geöffneter Dateien für jeden Prozess fest. Wenn nicht festgelegt, ist die Obergrenze die System-ulimit-n-Nummer, die im Allgemeinen 65535 beträgt.
worker_connections
Legen Sie die maximale Anzahl theoretisch zulässiger Verbindungen für einen Prozess fest. Theoretisch gilt: Je größer, desto besser, aber der Wert von worker_rlimit_nofile darf nicht überschritten werden.
Epoll verwenden
Stellen Sie das ereignisgesteuerte Modell so ein, dass Epoll verwendet wird. epoll ist eine der leistungsstarken ereignisgesteuerten Bibliotheken, die von Nginx unterstützt werden. Es gilt als hervorragendes ereignisgesteuertes Modell.
accept_mutex off
Netzwerkverbindungsserialisierung ausschalten Wenn es aktiviert ist, werden mehrere Nginx-Prozesse serialisiert, die Verbindungen akzeptieren, um die Konkurrenz mehrerer Prozesse um Verbindungen zu verhindern. Wenn nicht viele Serververbindungen vorhanden sind, wird durch Aktivieren dieses Parameters die Last bis zu einem gewissen Grad reduziert. Wenn der Durchsatz des Servers jedoch hoch ist, schalten Sie diesen Parameter aus Effizienzgründen bitte aus. Durch das Ausschalten dieses Parameters können Anforderungen auch gleichmäßiger auf mehrere Mitarbeiter verteilt werden. Also setzen wir „accept_mutex“ auf off;.
multi_accept on
Legen Sie einen Prozess fest, um mehrere Netzwerkverbindungen gleichzeitig zu akzeptieren.
Sendfile on
Sendfile ist ein Systemaufruf, der nach Linux 2.0 gestartet wurde. Er kann die Schritte im Netzwerkübertragungsprozess vereinfachen und die Serverleistung verbessern.
Traditioneller Netzwerkübertragungsprozess ohne sendfile:
硬盘 >> kernel buffer >> user buffer >> kernel socket buffer >> 协议栈
Verwendung von sendfile() für den Netzwerkübertragungsprozess:
硬盘 >> kernel buffer (快速拷贝到 kernelsocket buffer) >>协议栈
tcp_nopush on;
Legen Sie fest, dass Datenpakete gesammelt und dann gemeinsam übertragen werden, was die Übertragungseffizienz etwas verbessern kann. tcp_nopush muss mit sendfile verwendet werden.
tcp_nodelay on;
Kleine Pakete werden ohne Wartezeit direkt übertragen. Die Standardeinstellung ist aktiviert. Es scheint die entgegengesetzte Funktion von tcp_nopush zu sein, aber wenn beide Seiten eingeschaltet sind, kann Nginx auch die Verwendung dieser beiden Funktionen ausgleichen.
keepalive_timeout
Die Dauer der HTTP-Verbindung. Eine zu lange Einstellung führt zu zu vielen nutzlosen Threads. Dies wird anhand der Anzahl der Serverzugriffe, der Verarbeitungsgeschwindigkeit und der Netzwerkbedingungen berücksichtigt.
send_timeout
Legen Sie das Timeout fest, damit der Nginx-Server dem Client antwortet. Dieses Timeout gilt nur für die Zeit zwischen einer bestimmten Aktivität nach zwei Clients und dem Serveraufbau Wenn nach dieser Zeit keine Aktivität auf dem Client stattfindet, schließt der Nginx-Server die Verbindung.
gzip ein
Aktivieren Sie gzip, um Antwortdaten online in Echtzeit zu komprimieren und die Menge der Datenübertragung zu reduzieren.
gzip_disable "msie6"
Der Nginx-Server verwendet die Gzip-Funktion nicht zum Zwischenspeichern von Anwendungsdaten, wenn er auf diese Art von Client-Anfragen antwortet Browser Die Daten sind nicht GZIP-komprimiert.
Die häufig verwendeten Konfigurationselemente lauten ungefähr wie folgt. Für verschiedene Geschäftsszenarien sind einige zusätzliche Konfigurationselemente erforderlich, die hier nicht erweitert werden.
Andere
In der http-Konfiguration gibt es ein Standortelement, das verwendet wird, um die entsprechende Verarbeitung basierend auf der URI in der Anfrage abzugleichen . Regel.
Standortsuchregeln
location = / { # 精确匹配 / ,主机名后面不能带任何字符串 [ config A ] } location / { # 因为所有的地址都以 / 开头,所以这条规则将匹配到所有请求 # 但是正则和最长字符串会优先匹配 [ config B ] } location /documents/ { # 匹配任何以 /documents/ 开头的地址,匹配符合以后,还要继续往下搜索 # 只有后面的正则表达式没有匹配到时,这一条才会采用这一条 [ config C ] } location ~ /documents/Abc { # 匹配任何以 /documents/Abc 开头的地址,匹配符合以后,还要继续往下搜索 # 只有后面的正则表达式没有匹配到时,这一条才会采用这一条 [ config CC ] } location ^~ /images/ { # 匹配任何以 /images/ 开头的地址,匹配符合以后,停止往下搜索正则,采用这一条 [ config D ] } location ~* \.(gif|jpg|jpeg)$ { # 匹配所有以 gif,jpg或jpeg 结尾的请求 # 然而,所有请求 /images/ 下的图片会被 config D 处理,因为 ^~ 到达不了这一条正则 [ config E ] } location /images/ { # 字符匹配到 /images/,继续往下,会发现 ^~ 存在 [ config F ] } location /images/abc { # 最长字符匹配到 /images/abc,继续往下,会发现 ^~ 存在 # F与G的放置顺序是没有关系的 [ config G ] } location ~ /images/abc/ { # 只有去掉 config D 才有效:先最长匹配 config G 开头的地址,继续往下搜索,匹配到这一条正则,采用 [ config H ] }
Die reguläre Suchpriorität von hoch nach niedrig ist wie folgt:
" = " bedeutet Beginnend mit der genauen Übereinstimmung werden beispielsweise in A nur die Anforderungen am Ende des Stammverzeichnisses abgeglichen, und es können keine Zeichenfolgen folgen.
Der Anfang von „ ^~“ bedeutet, dass die URI mit einer regulären Zeichenfolge beginnt und keine reguläre Übereinstimmung ist.
Der Anfang von „ ~ „ weist auf einen regulären Abgleich hin, bei dem die Groß-/Kleinschreibung beachtet wird.
Der Anfang von „ ~*“ weist auf einen regulären Abgleich ohne Berücksichtigung der Groß-/Kleinschreibung hin.
" / " Universelle Übereinstimmung. Wenn es keine andere Übereinstimmung gibt, wird jede Anfrage abgeglichen.
Lastausgleichskonfiguration
Nginx 的负载均衡需要用到 upstream 模块,可通过以下配置来实现:
upstream test-upstream { ip_hash; # 使用 ip_hash 算法分配 server 192.168.1.1; # 要分配的 ip server 192.168.1.2; } server { location / { proxy_pass http://test-upstream; } }
上面的例子定义了一个 test-upstream 的负载均衡配置,通过 proxy_pass 反向代理指令将请求转发给该模块进行分配处理。
Das obige ist der detaillierte Inhalt vonAusführlicher Artikel zur Nginx-Konfiguration. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!