고부하 네트워크를 위해 Nginx 및 Node.js를 최적화하는 방법
Network Tuning
nginx와 node.js의 기본 전송 메커니즘을 먼저 이해하고 타겟 최적화를 수행하지 않으면 두 가지의 최적화를 아무리 자세하게 수행해도 헛수고가 됩니다. 일반적으로 nginx는 TCP 소켓을 통해 클라이언트와 업스트림 애플리케이션을 연결합니다.
우리 시스템에는 커널 매개변수를 통해 설정되는 tcp에 대한 많은 임계값과 제한 사항이 있습니다. 이러한 매개변수의 기본값은 일반적인 목적으로 설정되는 경우가 많으며 웹 서버의 높은 트래픽 및 짧은 수명 요구 사항을 충족할 수 없습니다.
다음은 TCP 조정을 위한 후보인 몇 가지 매개변수입니다. 이를 효과적으로 적용하려면 /etc/sysctl.conf 파일에 넣거나 /etc/sysctl.d/99-tuning.conf와 같은 새 구성 파일에 넣은 다음 sysctl -p를 실행하여 커널이 로드하도록 하세요. 우리는 이 물리적 작업을 수행하기 위해 sysctl-cookbook을 사용합니다.
여기에 나열된 값은 사용해도 안전하지만 부하, 하드웨어 및 사용량에 따라 보다 적절한 값을 선택하려면 각 매개변수의 의미를 연구하는 것이 좋습니다.
코드 복사 코드는 다음과 같습니다.
net.ipv4.ip_local_port_range='1024 65000'
net.ipv4 .tcp_tw_reuse='1'
net.ipv4.tcp_fin_timeout='15'
net.core.netdev_max_backlog='4096'
net.core.rmem_max='16777216'
net.core.somaxconn='4096'
net.core .wmem_max='16777216'
net.ipv4.tcp_max_syn_backlog='20480'
net.ipv4.tcp_max_tw_buckets='400000'
net.ipv4.tcp_no_metrics_save='1'
net.ipv4.tcp_rmem='40 9 6 87380 16777216'
net .ipv4.tcp_syn_retries='2'
net.ipv4.tcp_synack_retries='2'
net.ipv4.tcp_wmem='4096 65536 16777216'
vm.min_free_kbytes='65536' ;
그 중 중요한 것을 강조하세요.
net.ipv4.ip_local_port_range
업스트림 애플리케이션을 위한 다운스트림 클라이언트를 제공하려면 nginx는 두 개의 TCP 연결(클라이언트에 하나, 애플리케이션에 하나)을 열어야 합니다. 서버가 많은 연결을 수신하면 시스템의 사용 가능한 포트가 빠르게 고갈됩니다. net.ipv4.ip_local_port_range 매개변수를 수정하면 사용 가능한 포트 범위를 늘릴 수 있습니다. 이러한 오류가 /var/log/syslog에 발견되면 "포트 80에서 가능한 신 플러딩. 쿠키 전송"은 시스템이 사용 가능한 포트를 찾을 수 없음을 의미합니다. net.ipv4.ip_local_port_range 매개변수를 늘리면 이 오류를 줄일 수 있습니다.
net.ipv4.tcp_tw_reuse
서버가 다수의 TCP 연결 사이를 전환해야 할 때 time_wait 상태의 다수의 연결이 생성됩니다. time_wait는 연결 자체는 닫혔지만 리소스는 해제되지 않았음을 의미합니다. net_ipv4_tcp_tw_reuse를 1로 설정하면 커널이 안전할 때 연결을 재활용하려고 시도할 수 있으며 이는 새 연결을 다시 설정하는 것보다 훨씬 저렴합니다.
net.ipv4.tcp_fin_timeout
이것은 time_wait 상태의 연결이 재활용되기 전에 기다려야 하는 최소 시간입니다. 더 작게 만들면 재활용 속도가 빨라질 수 있습니다.
연결 상태를 확인하는 방법
netstat:
netstat -tan | awk '{print $6}' | sort | uniq -c
또는 ss:
ss -s
nginx
ss -s
를 사용하세요. (Kernel 541)
tcp : 47461 (Estab 311, 닫힌 47135, 고아 4, Synrecv 0, Timewait 47135/0), 포트 33938
트랜스 포트 총 IPv6 °* 541 -ayraw 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. tcp 326 325 1
inet 339 335 4
frag 0 0 0
웹 서버의 부하가 점차 증가함에 따라 nginx의 몇 가지 이상한 제한 사항에 직면하기 시작합니다. 연결이 끊어지고 커널이 계속해서 syn Flood를 보고합니다. 현재로서는 로드 평균과 CPU 사용량이 매우 적고 서버가 분명히 더 많은 연결을 처리할 수 있기 때문에 정말 실망스럽습니다.
조사 결과 time_wait 상태의 연결이 많은 것으로 나타났습니다. 다음은 서버 중 하나의 출력입니다.
time_wait 연결이 47135개 있습니다! 게다가 ss를 보면 모두 닫힌 연결임을 알 수 있습니다. 이는 서버가 사용 가능한 포트의 대부분을 소비했음을 나타내며 서버가 각 연결에 대해 새 포트를 할당하고 있음을 의미합니다. 네트워크를 조정하면 문제가 약간 해결되었지만 여전히 포트가 충분하지 않았습니다.
추가 조사 끝에 다음과 같은 업스트림 연결 유지 지시문에 대한 문서를 찾았습니다.
업스트림 서버에 대한 최대 유휴 연결 유지 연결 수를 설정하세요. 이러한 연결은 작업자 프로세스의 캐시에 유지됩니다.
흥미롭네요. 이론적으로 이 설정은 캐시된 연결을 통해 요청을 전달하여 낭비되는 연결을 최소화합니다. 문서에는 또한 proxy_http_version을 "1.1"로 설정하고 "connection" 헤더를 지워야 한다고 언급되어 있습니다. 추가 조사를 통해 이것이 좋은 아이디어라는 것을 알았습니다. 왜냐하면 http/1.1은 http1.0에 비해 tcp 연결 사용을 크게 최적화하고 nginx는 기본적으로 http/1.0을 사용하기 때문입니다.
문서에서 제안한 대로 수정하면 업링크 구성 파일은 다음과 같습니다.
코드 복사 코드는 다음과 같습니다.
업스트림 backend_nodejs {
서버 nodejs-3:5016 max_fails=0 failure_timeout=10s;
서버 nodejs-4:5016 max_fails=0 실패_timeout=10s;
서버 nodejs-5:5016 max_fails=0 failure_timeout=10s;
서버 nodejs- 6:5016 max_fails=0 fall_timeout=10s;
keepalive 512;
}
또한 제안한 대로 서버 섹션의 프록시 설정도 수정했습니다. 동시에 실패한 서버를 건너뛰기 위해 Proxy_next_upstream이 추가되었고 클라이언트의 keepalive_timeout이 조정되었으며 액세스 로그가 꺼졌습니다. 구성은 다음과 같습니다.
코드 복사 코드는 다음과 같습니다.
server {
listen 80;
server_name fast.gosquared.com;
client_max_body_size 16m;
keepalive_timeout 10;
location / {
proxy_next_upstream error timeout http_500 http_50 2 http_503 http_504;
proxy_set_header 연결 "";
proxy_http_version 1.1;
proxy_pass http://backend_nodejs;
}
access_log off;
error_log /dev/null crit;
}
새로운 구성을 채택한 후 다음을 발견했습니다. 서버가 차지하는 소켓이 90% 감소했습니다. 이제 훨씬 적은 수의 연결을 사용하여 요청을 전송할 수 있습니다. 새로운 출력은 다음과 같습니다:
ss -s
total: 558(커널 604)
tcp: 4675(estab 485, close 4183, orphaned 0, synrecv 0, timewait 4183/0), 포트 2768
transport total ip ipv6
* 604 - -
raw 0 0 0
udp 13 10 3
tcp 492 491 1
inet 505 501 4
node.js
I/O를 비동기적으로 처리할 수 있는 이벤트 중심 설계 덕분에 node.js는 대규모 처리가 가능합니다. 즉시 사용 가능한 연결 및 요청 금액입니다. 다른 튜닝 기술이 있지만 이 기사에서는 주로 node.js의 프로세스 측면에 중점을 둘 것입니다.
노드는 단일 스레드이며 다중 코어를 자동으로 사용하지 않습니다. 즉, 응용 프로그램은 서버의 전체 기능을 자동으로 얻을 수 없습니다.
노드 프로세스의 클러스터링 달성
여러 스레드를 포크하고 동일한 포트에서 데이터를 수신하여 로드가 여러 코어에 걸쳐 실행되도록 애플리케이션을 수정할 수 있습니다. Node에는 이 목표를 달성하는 데 필요한 모든 도구를 제공하는 클러스터 모듈이 있지만 이를 애플리케이션에 추가하려면 많은 수작업이 필요합니다. Express를 사용하는 경우 eBay에는 사용할 수 있는 Cluster2라는 모듈이 있습니다.
컨텍스트 전환 방지
여러 프로세스를 실행할 때 각 CPU 코어가 동시에 하나의 프로세스로만 사용되는지 확인해야 합니다. 일반적으로 CPU에 n개의 코어가 있으면 n-1개의 애플리케이션 프로세스를 생성해야 합니다. 이렇게 하면 각 프로세스가 합리적인 시간 조각을 확보하여 커널 스케줄러가 다른 작업을 실행할 수 있도록 하나의 코어를 확보할 수 있습니다. 또한 CPU 경합을 방지하기 위해 기본적으로 node.js 이외의 다른 작업이 서버에서 실행되지 않도록 해야 합니다.
한 번은 실수를 해서 두 개의 node.js 애플리케이션을 서버에 배포한 후 각 애플리케이션이 n-1개의 프로세스를 열었습니다. 결과적으로 서로 CPU를 놓고 경쟁하게 되어 시스템 부하가 급격히 증가하게 됩니다. 우리 서버는 모두 8코어 머신이지만 컨텍스트 전환으로 인한 성능 오버헤드는 여전히 뚜렷하게 느껴집니다. 컨텍스트 스위칭(Context Switching)은 CPU가 다른 작업을 수행하기 위해 현재 작업을 일시 중단하는 현상을 말합니다. 전환할 때 커널은 현재 프로세스의 모든 상태를 일시 중지한 다음 다른 프로세스를 로드하고 실행해야 합니다. 이 문제를 해결하기 위해 각 응용 프로그램에서 시작되는 프로세스 수를 줄이고 CPU를 공정하게 공유하도록 했습니다. 그 결과 시스템 로드가 떨어졌습니다.
위 그림에 주의하여 시스템 로드(파란색 선)가 CPU 코어 수(빨간색 선) 아래로 떨어졌습니다. 다른 서버에서도 같은 현상이 나타났습니다. 전체 작업량은 동일하므로 위 그래프의 성능 향상은 컨텍스트 전환의 감소에 따른 것일 수밖에 없습니다.
위 내용은 고부하 네트워크를 위해 Nginx 및 Node.js를 최적화하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











클라우드 서버에서 nginx 도메인 이름을 구성하는 방법 : 클라우드 서버의 공개 IP 주소를 가리키는 레코드를 만듭니다. Nginx 구성 파일에 가상 호스트 블록을 추가하여 청취 포트, 도메인 이름 및 웹 사이트 루트 디렉토리를 지정합니다. Nginx를 다시 시작하여 변경 사항을 적용하십시오. 도메인 이름 테스트 구성에 액세스하십시오. 기타 참고 : HTTPS를 활성화하려면 SSL 인증서를 설치하고 방화벽에서 포트 80 트래픽을 허용하고 DNS 해상도가 적용되기를 기다립니다.

nginx가 시작되었는지 확인하는 방법 : 1. 명령 줄을 사용하십시오 : SystemCTL 상태 nginx (linux/unix), netstat -ano | Findstr 80 (Windows); 2. 포트 80이 열려 있는지 확인하십시오. 3. 시스템 로그에서 nginx 시작 메시지를 확인하십시오. 4. Nagios, Zabbix 및 Icinga와 같은 타사 도구를 사용하십시오.

Docker 이미지 생성 단계 : 빌드 지침이 포함 된 Dockerfile을 작성하십시오. Docker 빌드 명령을 사용하여 터미널에 이미지를 빌드하십시오. Docker 태그 명령을 사용하여 이미지를 태그하고 이름과 태그를 지정하십시오.

nginx 버전을 쿼리 할 수있는 메소드는 다음과 같습니다. nginx -v 명령을 사용하십시오. nginx.conf 파일에서 버전 지시문을 봅니다. nginx 오류 페이지를 열고 페이지 제목을 봅니다.

Nginx 서버를 시작하려면 다른 운영 체제에 따라 다른 단계가 필요합니다. Linux/Unix System : Nginx 패키지 설치 (예 : APT-Get 또는 Yum 사용). SystemCTL을 사용하여 nginx 서비스를 시작하십시오 (예 : Sudo SystemCtl start nginx). Windows 시스템 : Windows 바이너리 파일을 다운로드하여 설치합니다. nginx.exe 실행 파일을 사용하여 nginx를 시작하십시오 (예 : nginx.exe -c conf \ nginx.conf). 어떤 운영 체제를 사용하든 서버 IP에 액세스 할 수 있습니다.

Linux에서는 다음 명령을 사용하여 nginx가 시작되었는지 확인하십시오. SystemCTL 상태 Nginx 판사 명령 출력에 따라 : "active : running"이 표시되면 Nginx가 시작됩니다. "Active : 비활성 (죽음)"이 표시되면 Nginx가 중지됩니다.

Linux에서 Nginx를 시작하는 단계 : Nginx가 설치되어 있는지 확인하십시오. systemctl start nginx를 사용하여 nginx 서비스를 시작하십시오. SystemCTL을 사용하여 NGINX를 사용하여 시스템 시작시 NGINX의 자동 시작을 활성화하십시오. SystemCTL 상태 nginx를 사용하여 시작이 성공했는지 확인하십시오. 기본 환영 페이지를 보려면 웹 브라우저의 http : // localhost를 방문하십시오.

Nginx 403 금지 된 오류를 수정하는 방법은 무엇입니까? 파일 또는 디렉토리 권한을 확인합니다. 2. 확인 파일을 확인하십시오. 3. nginx 구성 파일 확인; 4. nginx를 다시 시작하십시오. 다른 가능한 원인으로는 방화벽 규칙, Selinux 설정 또는 응용 프로그램 문제가 있습니다.
