Nginx が負荷分散構成を実装する方法には特定のコード例が必要です
はじめに:
負荷分散は、複数のサーバーが動作できるようにネットワーク サーバーにワークロードを割り当てる方法です。連携してリクエストを処理し、システムの可用性とパフォーマンスを向上させます。 Nginx では、設定を通じて負荷分散を実現できます。この記事では、Nginx を使用して負荷分散設定を行う方法と具体的なコード例を紹介します。読者の参考になれば幸いです。
1. Nginx 負荷分散の基本原則
Nginx は、HTTP リバース プロキシを通じて負荷分散を実現します。クライアントがリクエストを送信すると、Nginx はプロキシ サーバーとして機能し、バックグラウンドで複数のサーバーにリクエストを転送し、サーバーの処理結果をクライアントに返します。 Nginx は、ポーリング、加重ポーリング、IP ハッシュ、最小接続数などを含む、さまざまな負荷分散戦略をサポートしています。
2. Nginx 負荷分散設定方法
http { upstream backend { server backend1.example.com weight=1; server backend2.example.com weight=2; } server { listen 80; server_name example.com; location / { proxy_pass http://backend; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; } } }
上記の設定では、upstream キーワードはバックエンド サーバーのグループを定義し、必要に応じてサーバーを追加または削除できます。このうち、backend1.example.com と backend2.example.com は、実際のサーバーのドメイン名または IP アドレスに置き換えることができます。重みパラメータは各サーバーの重みを定義します。重みが大きいほど、より多くのリクエストを処理します。
sudo systemctl restart nginx
3. Nginx 負荷分散の例と効果
2 つのサーバー backend1 (192.168.1.100) と backend2 (192.168.1.200) があり、backend2 の重みが backend2 の重みの 2 倍であると仮定します。バックエンド1 。クライアントがリクエストを送信すると、Nginx は重みに従ってリクエストを分散します。具体的な構成は次のとおりです。
http { upstream backend { server 192.168.1.100 weight=1; server 192.168.1.200 weight=2; } server { listen 80; server_name example.com; location / { proxy_pass http://backend; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; } } }
上記の構成では、100 個のリクエストが Nginx に送信されると、バックエンド 1 は 100/3 ≒ 34 リクエストの重みを処理し、バックエンド 2 は 100/3 の重みを処理します。 ※2 ≒67リクエストとなり、負荷分散を実現します。
結論:
上記の構成とサンプル コードを通じて、Nginx の負荷分散機能が非常に強力で、構成が簡単であることがわかります。小規模な Web サイトでも大規模なアプリケーションでも、Nginx を使用して高可用性と高パフォーマンスの負荷分散を実現できます。この記事がNginxの負荷分散の設定方法を理解する一助になれば幸いです。
以上がNginx が負荷分散構成を実装する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。