ブラウザに Web リンクを入力すると、ブラウザは HTTP(s)
伝送プロトコルに基づいて対応するサーバーにリクエストを送信し、サーバーはそれを受け取ります。対応するリクエストが処理され、対応する情報がブラウザに返され、ブラウザは http
のコンテンツを解析し、Web ページの形式で表示します。
サーバーは、リクエストを受信し、処理後に対応するデータを返す責任を負います。これは、http
接続を処理するサービス部分と、サービス コンテンツを実行するアプリケーション部分に細分化できます。 ( WordPress
は PHP
を使用して必要なページを生成します。これはアプリケーション部分に属します)
アプリケーション部分が実行するアプリケーションの種類に関係なく、それはアプリケーション部分です。 http
接続を処理するこれらはほぼ同じであるため、特に http
接続を処理するミドルウェアが登場しました。現在、最も一般的なものは Apache
と ## です。 #Nginx。
Apache HTTP Server」で、1995年に誕生したオープンソースの
HTTPサーバーミドルウェアです。
HTTP サービス分野のリーダーであり、多数のユーザーと豊富なコミュニティ リソースを備えています。
Apache の大きな利点の 1 つは、
Wordpress や他の CMS ソフトウェアと簡単に統合できることであり、簡単な設定だけで CMS ベースの Web サイトを構築できます。
Apache はマルチプロセス アプローチを採用しており、接続があるたびに、これに対するプロセスが開かれます。接続、特に接続が終了するまでこの接続上のリクエストを処理します。この利点は次のとおりです:
Apache は大量のアクセスを作成します。プロセスの増加により、メモリ リソースが過剰に占有されます。
C10K と呼ばれる問題が発生しました。C はクライアントであり、10K はサーバーとネットワークのパフォーマンスに関係なく、10,000 を指します。帯域幅がどれほど広いとしても、
Apache が 10,000 を超える接続を同時に処理することは困難になります。
Engine-X と発音され、
Apache と同様に、
HTTP のオープンソース ミドルウェアでもあります。 2004年に誕生したサービス。
Nginx は
Apache よりも歴史が浅いですが、後発だからこそ
Nginx は
Apache の教訓を学び、それを
Apache に実装しました。設計の初期段階で、多数の接続を処理する際の効率の問題を考慮して、
C10K
Nginx
は、
ノンブロッキング IO と、
ワーカー ## と呼ばれる非同期メッセージ駆動メソッドを採用しています。 # スレッド内のループを使用して、キュー内の接続リクエストを処理します。ハードウェアによっては、CPU
のコア リソースを最大限に活用するために複数の worker
スレッドを設定できます。
多数の接続を処理する際の過剰なメモリ消費とスケジューリング効率の低下の問題を解決すると同時に、すべての CPU コアを最大限に活用できます。同じハードウェア上で同時接続を処理できる能力は、Apache
の 10 ~ 100 倍です。
しかしNginx
この方法には欠点がないわけではありません。
サーバーのシングルコアのパフォーマンスが低い場合、CMS ベースの動的 Web サイトはリクエストの実行に時間がかかることがあります。このとき、他のクライアントからのリクエストは実行されません。直ちに実行されます。 CPU
のコアが少なく、worker
スレッドが不十分な場合は、より明らかになります。
幸いなことに、サーバーのパフォーマンスはますます強化されており、AMD
の主導のもと、CPU
コアの数も増加しています。 ,Nginx
の欠点は十分に補われるものであり、高効率の利点がますます明らかになってきています。
Apache Nginx
処理能力が10~100倍に制限されており、複雑なタスクでブロックされないか? 難易度を比較的低く設定することは可能でしょうか?シンプルで比較的複雑? コミュニティには豊富なリソースがあり、比較的少ない
近年、Nginx
の市場シェアは増加し続けており、2019 年には # と同じレベルに達しました。 ##アパッチ。訪問数が膨大な大規模な Web サイトの場合、訪問数が増えるほど、
Nginx の割合が高くなることがわかります。これは、大量のアクセスを処理する場合の
Nginx の優れたパフォーマンスも裏付けています。
NginxHTTP サーバーとしての使用に加えて、その強力なリバース プロキシ機能は、負荷分散フロントエンド サーバーとしても徐々に広く使用されています。ハードウェア ロード バランサーを置き換えます。
Nginx で複数のバックエンド サーバーを構成できます。
Nginx は特定のルール (ポーリング、IP ハッシュ、優先度ランダム) などに従い、リクエストをバックエンドに転送します。 -end サーバーは、複数のサーバー上で負荷の平均または加重分散を実現します。
同時に、負荷分散フロントエンドとして、バックエンドから返されたデータをキャッシュして、バックエンド サーバーへの負担を軽減することもできます。フロントエンドは負荷分散に Nginx
を使用して各サーバーへの接続数を制限し、バックエンド サーバーが Apache
を実行することも珍しくありません。
ハードウェア ロード バランサーの業界リーダーである F5 ネットワーク
は、2019 年に Nginx
を買収し、有料サービスを含む負荷分散ソリューション Nginx
を開始しました。
以上がApache HTTP と Nginx のどちらのエンジンが優れていますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。