Nginx が負荷分散を実現するためのいくつかの方法
負荷分散とは
サーバーの単位時間当たりのアクセス数が増えるほど、サーバーへの負荷が大きくなり、サーバー自体の容量を超えるとサーバーが崩壊します。サーバーのクラッシュを回避し、ユーザーにより良いエクスペリエンスを提供するために、負荷分散を使用してサーバーの負荷を分散します。
サーバー クラスターを形成するために非常に多くのサーバーを構築できます。ユーザーが Web サイトにアクセスすると、最初に中間サーバーにアクセスし、次に中間サーバーにサーバー クラスター内で負荷の少ないサーバーを選択させます。サーバーへのアクセス要求。このようにして、ユーザーがアクセスするたびに、サーバー クラスター内の各サーバーの負荷がバランスよく保たれるようになり、サーバーの負荷が分散され、サーバーのクラッシュが回避されます。
負荷分散は、リバース プロキシの原理を使用して実装されます。
負荷分散のいくつかの一般的な方法
1. ポーリング (デフォルト)
各リクエスト は時系列に 1 つずつ異なるバックエンド サーバーに割り当てられます バックエンド サーバーがダウンした場合、自動的に割り当てられます。排除された。
upstream backserver { server 192.168.0.14; server 192.168.0.15; }
2. 重み
ポーリング確率を指定します。重みはアクセス率に比例し、バックエンドサーバーのパフォーマンスが不均一な
状況に使用されます。
upstream backserver { server 192.168.0.14 weight=3; server 192.168.0.15 weight=7; }
上記の例のように、重みが大きいほど訪問される確率は高くなります。それぞれ 30%、70% になります。
3. 負荷分散システムでは、ユーザーが特定のサーバーにログインすると、負荷分散システムであるため、ユーザーが 2 番目のリクエストを行う際に問題が発生します。これを繰り返すと、あるサーバーにログインしていたユーザーが別のサーバーに移動してしまい、ログイン情報が失われますが、これは明らかに不適切です。
この問題を解決するには、ip_hash 命令を使用できます。顧客がすでに特定のサーバーにアクセスしている場合、ユーザーが再度アクセスすると、リクエストはハッシュ アルゴリズムを通じて自動的にサーバーに配置されます。
各リクエストはアクセスIPのハッシュ結果に従って割り当てられるため、各訪問者はバックエンドサーバーに固定的にアクセスでき、セッションの問題を解決できます。
upstream backserver { ip_hash; server 192.168.0.14:88; server 192.168.0.15:80; }
4. 公平 (サードパーティ)
リクエストはバックエンドサーバーの応答時間に応じて割り当てられ、応答時間の短いものが最初に割り当てられます。
upstream backserver { server server1; server server2; fair; }
5. url_hash (サードパーティ)
アクセスされた URL のハッシュ結果に従ってリクエストを分散し、各 URL が同じバックエンド サーバーに送られるようにします。バックエンド サーバーがキャッシュされている場合、より効果的です。
upstream backserver { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; }
各デバイスのステータスは次のように設定されます:
1.down は、前のサーバーが一時的に負荷に参加しないことを意味します
2.weight デフォルトは 1 です。重みが大きいほど、負荷の重みが大きくなります。
3.max_fails
: 許可されるリクエストの失敗回数はデフォルトで 1 回です。最大回数を超えると、max_fails
:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream
模块定义的错误
4.fail_timeout:max_fails
4.fail_timeout:max_fails
失敗後の一時停止時間。
5.バックアップ: バックアップ以外の他のすべてのマシンがダウンしているかビジー状態の場合、バックアップ マシンを要求します。したがって、このマシンの圧力は最も少なくなります。
設定例:
#user nobody;worker_processes 4; events { # 最大并发数 worker_connections 1024; } http{ # 待选服务器列表 upstream myproject{ # ip_hash指令,将同一用户引入同一服务器。 ip_hash; server 125.219.42.4 fail_timeout=60s; server 172.31.2.183; } server{ # 监听端口 listen 80; # 根目录下 location / { # 选择哪个服务器列表 proxy_pass http://myproject; } } }
関連する推奨事項:
以上がNginx が負荷分散を実現するためのいくつかの方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











Tomcat サーバーが外部ネットワークにアクセスできるようにするには、以下を行う必要があります。 外部接続を許可するように Tomcat 構成ファイルを変更します。 Tomcat サーバー ポートへのアクセスを許可するファイアウォール ルールを追加します。 Tomcat サーバーのパブリック IP を指すドメイン名を指す DNS レコードを作成します。オプション: リバース プロキシを使用して、セキュリティとパフォーマンスを向上させます。オプション: セキュリティを強化するために HTTPS を設定します。

ThinkPHP フレームワークをローカルで実行する手順: ThinkPHP フレームワークをローカル ディレクトリにダウンロードして解凍します。 ThinkPHP ルート ディレクトリを指す仮想ホスト (オプション) を作成します。データベース接続パラメータを構成します。 Webサーバーを起動します。 ThinkPHP アプリケーションを初期化します。 ThinkPHP アプリケーションの URL にアクセスして実行します。

Nginx の開始コマンドと停止コマンドは、それぞれ nginx と nginx -s quit です。 start コマンドはサーバーを直接起動し、stop コマンドはサーバーを正常にシャットダウンして、現在のすべてのリクエストを処理できるようにします。その他の使用可能な停止信号には、停止およびリロードがあります。

「nginx へようこそ!」エラーを解決するには、仮想ホスト構成を確認し、仮想ホストを有効にし、Nginx をリロードする必要があります。仮想ホスト構成ファイルが見つからない場合は、デフォルト ページを作成して Nginx をリロードすると、エラー メッセージが表示されます。が消え、ウェブサイトは通常のショーになります。

Web サイトにアクセスすると nginx が表示されます。その理由としては、サーバーのメンテナンス、サーバーのビジー状態、ブラウザーのキャッシュ、DNS の問題、ファイアウォールのブロック、Web サイトの構成ミス、ネットワーク接続の問題、Web サイトのダウンなどが考えられます。次の解決策を試してください: メンテナンスが終了するまで待つ、オフピーク時間にアクセスする、ブラウザのキャッシュをクリアする、DNS キャッシュをフラッシュする、ファイアウォールまたはウイルス対策ソフトウェアを無効にする、サイト管理者に連絡する、ネットワーク接続を確認する、または検索エンジンを使用するWeb アーカイブを使用して、サイトの別のコピーを見つけます。問題が解決しない場合は、サイト管理者にお問い合わせください。

phpMyAdmin に登録するには、まず MySQL ユーザーを作成して権限を付与し、次に phpMyAdmin をダウンロード、インストール、構成し、最後に phpMyAdmin にログインしてデータベースを管理する必要があります。

Node.js プロジェクトのサーバー デプロイメント手順: デプロイメント環境を準備します。サーバー アクセスの取得、Node.js のインストール、Git リポジトリのセットアップ。アプリケーションをビルドする: npm run build を使用して、デプロイ可能なコードと依存関係を生成します。コードをサーバーにアップロードします: Git またはファイル転送プロトコル経由。依存関係をインストールする: サーバーに SSH で接続し、npm install を使用してアプリケーションの依存関係をインストールします。アプリケーションを開始します。node Index.js などのコマンドを使用してアプリケーションを開始するか、pm2 などのプロセス マネージャーを使用します。リバース プロキシの構成 (オプション): Nginx や Apache などのリバース プロキシを使用して、トラフィックをアプリケーションにルーティングします。

Docker 環境でのコンテナ通信には、共有ネットワーク、Docker Compose、ネットワーク プロキシ、共有ボリューム、メッセージ キューの 5 つの方法があります。分離とセキュリティのニーズに応じて、Docker Compose を利用して接続を簡素化するか、ネットワーク プロキシを使用して分離を強化するなど、最も適切な通信方法を選択します。
