Nginx 서버의 소켓 분할이란 무엇입니까?

王林
풀어 주다: 2023-05-17 20:19:10
앞으로
727명이 탐색했습니다.

nginx 1.9.1 릴리스에는 so_reuseport 소켓 옵션을 사용할 수 있는 새로운 기능이 도입되었습니다. 이 옵션은 Dragonfly BSD 및 Linux(커널 버전 3.9 이상)를 포함한 많은 운영 체제의 새 버전에서 사용할 수 있습니다. 이 소켓 옵션을 사용하면 여러 소켓이 동일한 IP 및 포트 조합을 수신할 수 있습니다. 커널은 이러한 소켓을 통해 들어오는 연결의 로드 밸런싱을 수행할 수 있습니다. (nginx plus 고객의 경우 이 기능은 올해 말에 출시될 버전 7에서 사용할 수 있습니다.)

so_reuseport 옵션에는 실제 적용 가능성이 많이 있습니다. 다른 서비스에서도 이를 사용하여 실행 중에 롤링 업그레이드를 간단히 구현할 수 있습니다(nginx는 이미 롤링 업그레이드를 지원합니다). nginx의 경우 이 옵션을 활성화하면 특정 시나리오에서 잠금 경합을 줄이고 성능을 향상시킬 수 있습니다.

아래 그림에서 설명한 것처럼 so_reuseport 옵션이 유효한 경우 별도의 청취 소켓이 액세스된 연결을 작업자 프로세스에 알리고 각 작업자 스레드는 연결을 얻으려고 시도합니다.

Nginx 서버의 소켓 분할이란 무엇입니까?

so_reuseport 옵션이 활성화되면 각 IP 주소 및 포트 바인딩 연결에 대해 여러 개의 소켓 리스너가 있으며 각 작업자 프로세스에 하나씩 할당할 수 있습니다. 시스템 커널은 어떤 유효한 소켓 수신기(그리고 암시적으로 어떤 작업자 프로세스에 대해)가 연결을 얻는지 결정합니다. 이는 새로운 연결을 얻을 때 작업자 프로세스 간의 잠금 경쟁을 줄이고(번역자 참고: 상호 배타적인 리소스 잠금을 얻기 위해 요청하는 작업자 프로세스 간의 경쟁) 다중 코어 시스템의 성능을 향상시킬 수 있습니다. 그러나 이는 작업자 프로세스가 차단 작업에 빠지면 차단으로 인해 연결을 수락한 작업자 프로세스뿐만 아니라 커널에서 할당하도록 예약된 작업자 프로세스도 연결 요청을 보내게 되므로 연결을 요청한다는 의미이기도 합니다. 차단됩니다.

Nginx 서버의 소켓 분할이란 무엇입니까?

공유 소켓 설정

so_reuseport 소켓 옵션이 작동하려면 http 또는 tcp(스트림 모드) 통신 옵션의 수신 항목에 대해 새 재사용 포트 매개변수를 직접 도입해야 합니다. 다음 예:

코드 복사 코드는 다음과 같습니다.


http {
Server { Listen 80 Reuseport;
server_name localhost; ...
}
}

stream {
server { Listen 12345 재사용 포트;
                                                                      

재사용 포트 매개변수를 참조한 후에는 뮤텍스(뮤텍스)가 재사용 포트에 중복되므로 참조된 소켓에 대해 accept_mutex 매개변수가 유효하지 않습니다. 재사용 포트를 사용하지 않는 포트의 경우에도 accept_mutex를 설정하는 것이 중요합니다.

reuseport의 벤치마크 성능 테스트

36코어 AWS 인스턴스에서 벤치마크 도구를 실행하여 4개의 nginx 작업자 프로세스를 테스트했습니다. 네트워크의 영향을 줄이기 위해 클라이언트와 nginx가 모두 로컬에서 실행되고 nginx가 해당 프로세스를 반환하도록 합니다. ok 파일이 아닌 문자열. 나는 세 가지 nginx 구성, 즉 기본값(accept_mutex on과 동일), accept_mutex off 및 재사용 포트를 비교했습니다. 그림에서 볼 수 있듯이, 재사용 포트의 초당 요청 수는 다른 것보다 2~3배 많고 대기 시간 및 대기 시간 표준 편차도 감소합니다.


또 다른 관련 성능 테스트를 실행했습니다. 클라이언트와 nginx는 다른 컴퓨터에 있었고 nginx는 html 파일을 반환했습니다. 아래 표에서 볼 수 있듯이, Reuseport를 사용한 지연 시간 감소는 이전 성능 테스트와 유사하며, 지연 시간의 표준 편차 감소가 더 컸습니다(거의 10분의 1). 다른 결과(표에 표시되지 않음)도 마찬가지로 고무적입니다. 재사용 포트를 사용하면 부하가 작업자 프로세스 간에 고르게 분산됩니다. 기본 조건(accept_mutex on과 동일)에서 일부 작업자는 더 높은 비율의 로드를 받는 반면, accept_mutex를 끄면 모든 작업자는 더 높은 로드를 받습니다. Nginx 서버의 소켓 분할이란 무엇입니까?

코드 복사 코드는 다음과 같습니다.

대기 시간(ms) 대기 시간 stdev(ms) CPU 로드

default 15.65 26.59 0.3

accept_mutex off 15.59 26.48 10

reuseport 12.35 3.15 0.3

이 성능 테스트에서 연결은 요청 속도 매우 높지만 요청에 많은 처리가 필요하지 않습니다. 다른 기본 테스트에서는 애플리케이션 트래픽이 이 시나리오에 적합할 때 재사용 포트가 성능을 크게 향상시킬 수도 있다는 점을 지적해야 합니다. (이메일 트래픽은 확실히 이 시나리오와 일치하지 않기 때문에 이메일과 같은 메일 컨텍스트의 Listen 지시문에는 재사용포트 매개변수를 사용할 수 없습니다.) 대규모로 직접 적용하기보다는 먼저 테스트하는 것이 좋습니다.

위 내용은 Nginx 서버의 소켓 분할이란 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:yisu.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿