로드 밸런싱은 트래픽이 많은 우리 웹 사이트에서 수행해야 할 작업입니다. 이제 Nginx 서버의 로드 밸런싱 구성 방법이 필요한 학생들에게 도움이 되길 바랍니다.
로드 밸런싱
먼저 로드 밸런싱이 무엇인지 간단히 알아보겠습니다. 문자 그대로 이해하려면 N개의 서버가 로드를 균등하게 공유하며 특정 서버의 로드가 높아서 특정 서버가 다운되지 않는 것으로 설명할 수 있습니다. 서버가 유휴 상태입니다. 그러면 로드 밸런싱의 전제는 여러 서버에서 달성할 수 있다는 것입니다. 즉, 두 대 이상의 서버이면 충분합니다.
테스트 환경
서버가 없기 때문에 이번 테스트에서는 지정된 도메인 이름을 직접 호스팅한 후 VMware에 CentOS 3개를 설치합니다.
테스트 도메인 이름: a.com
A 서버 IP: 192.168.5.149(메인)
B 서버 IP: 192.168.5.27
C 서버 IP: 192.168.5.126
A 서버 배포 아이디어 주로 서버, 도메인 이름은 서버 A(192.168.5.149)로 직접 확인되고, 서버 A는 서버 B(192.168.5.27)와 서버 C(192.168.5.126)로 로드 밸런싱됩니다.
도메인 이름 확인
실제 환경이 아니기 때문에 도메인 이름은 테스트용 a.com일 뿐이므로 a.com의 확인은 호스트 파일에서만 설정할 수 있습니다.
Open: C:WindowsSystem32driversetchosts
Add
192.168.5.149 at the end a.com
저장하고 종료한 다음 명령 모드를 시작하고 ping을 실행하여 성공적으로 설정되었는지 확인합니다
스크린샷에서 , a.com이 192.168.5.149IP
A 서버 nginx.conf 설정
으로 확인되는 것을 볼 수 있습니다. nginx.conf를 열면 파일 위치는 nginx 설치 디렉터리의 conf 디렉터리에 있습니다.
http 섹션에 다음 코드를 추가하세요
upstream a.com { server 192.168.5.126:80; server 192.168.5.27:80; } server{ listen 80; server_name a.com; location / { proxy_pass http://a.com; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } }
nginx를 저장하고 다시 시작하세요
B 및 C 서버 nginx.conf 설정
nginx.confi를 열고 http 섹션에 다음 코드를 추가하세요server{ listen 80; server_name a.com; index index.html; root /data0/htdocs/www; }
Test
a.com 접속 시 어떤 서버로 리다이렉트되어 처리되는지 구분하기 위해 서버 B와 C 각각에 내용이 다른 index.html 파일을 작성하여 구분했습니다.
브라우저를 열고 a.com을 방문하여 새로고침하면 모든 요청이 메인 서버(192.168.5.149)에 의해 서버 B(192.168.5.27)와 서버 C(192.168.5.126)에 할당되어 로드 밸런싱이 이루어지는 것을 확인할 수 있습니다. . 효과.
서버 중 하나가 다운되면 어떻게 되나요?
서버가 다운되면 접속에 영향이 있나요?
먼저 예시를 살펴보겠습니다. 위 예시를 바탕으로 머신 C 서버 192.168.5.126이 다운됐다고 가정하고(다운타임 시뮬레이션이 불가능해서 C 서버를 종료했습니다) 방문해보세요. 다시.
접속 결과:
C 서버(192.168.5.126)가 다운되었음에도 불구하고 웹사이트 접속에는 영향을 미치지 않은 것으로 확인되었습니다. 이렇게 하면 특정 시스템이 로드 밸런싱 모드에서 다운되어 전체 사이트를 끌어 내리는 것에 대해 걱정할 필요가 없습니다.
b.com에서도 로드 밸런싱을 설정해야 하면 어떻게 되나요?
a.com 설정과 동일하게 매우 간단합니다.
b.com의 메인 서버 IP가 192.168.5.149이고 로드가 192.168.5.150 및 192.168.5.151 머신으로 분산되어 있다고 가정합니다.
이제 b.com 도메인 이름을 192.168.5.149 IP로 확인합니다.
메인 서버(192.168.5.149)의 nginx.conf에 다음 코드를 추가하세요.
upstream b.com { server 192.168.5.150:80; server 192.168.5.151:80; } server{ listen 80; server_name b.com; location / { proxy_pass http://b.com; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } }
192.168.5.150 및 192.168.5.151 시스템에서 nginx를 설정하고 nginx.conf를 열고 마지막에 다음 코드를 추가하세요.
server{ listen 80; server_name b.com; index index.html; root /data0/htdocs/www; }
nginx를 저장하고 다시 시작하세요
다음 단계를 완료한 후 b.com의 로드 밸런싱 구성을 구현할 수 있습니다.
메인 서버에서는 서비스를 제공할 수 없나요?
위 예시에서는 메인 서버의 로드 밸런싱을 다른 서버에 적용하였기 때문에 메인 서버 자체를 서버 리스트에 추가할 수 있도록 하여 서버를 순전히 포워딩 기능으로만 사용하는데 낭비가 되지는 않겠지만, 또한 서비스 제공에 참여하십시오.
위의 경우와 같이 3개의 서버가 있습니다.
A 서버 IP: 192.168.5.149(메인)
B 서버 IP: 192.168.5.27
C 서버 IP: 192.168.5.126
도메인 이름을 A로 확인합니다. 서버 A에서 서버 B, 서버 C로 전달 기능만 수행합니다. 이제 서버 A도 사이트 서비스를 제공하도록 합니다.
먼저 분석해 보겠습니다. 메인 서버를 업스트림에 추가하면 다음 두 가지 상황이 발생할 수 있습니다.
1. 메인 서버가 다른 IP로 전달되고, 다른 IP 서버가 이를 정상적으로 처리합니다. 서버 자신의 IP로 전달한 후 메인 서버로 가서 IP를 할당하게 되는데, 항상 로컬 머신에 할당하게 되면 무한 루프가 발생하게 됩니다.
이 문제를 해결하는 방법은 무엇입니까? 포트 80은 로드 밸런싱 처리를 모니터링하는 데 사용되었기 때문에 이 서버에서 a.com에 대한 액세스 요청을 처리하는 데 더 이상 포트 80을 사용할 수 없으며 새 포트를 사용해야 합니다. 그래서 우리는 메인 서버의 nginx.conf에 다음 코드를 추가했습니다:
server{ listen 8080; server_name a.com; index index.html; root /data0/htdocs/www; }
nginx를 다시 시작하고 브라우저에 a.com:8080을 입력하여 액세스할 수 있는지 확인합니다. 결과적으로 정상적으로 접근이 가능합니다
정상적으로 접근이 가능하기 때문에 업스트림에 메인서버를 추가하면 되지만, 다음 코드와 같이 포트를 변경해야 합니다.
upstream a.com { server 192.168.5.126:80; server 192.168.5.27:80; server 127.0.0.1:8080; }
由于这里可以添加主服务器IP192.168.5.149或者127.0.0.1均可以,都表示访问自己。
重启Nginx,然后再来访问a.com看看会不会分配到主服务器上。
主服务器也能正常加入服务了。
最后
一、负载均衡不是nginx独有,著名鼎鼎的apache也有,但性能可能不如nginx。
二、多台服务器提供服务,但域名只解析到主服务器,而真正的服务器IP不会被ping下即可获得,增加一定安全性。
三、upstream里的IP不一定是内网,外网IP也可以。不过经典的案例是,局域网中某台IP暴露在外网下,域名直接解析到此IP。然后又这台主服务器转发到内网服务器IP中。
四、某台服务器宕机、不会影响网站正常运行,Nginx不会把请求转发到已宕机的IP上。
更多Nginx相关技术文章,请访问Nginx教程栏目进行学习!
위 내용은 nginx에서 로드 밸런싱을 구성하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!