Docker はブリッジ モードをサポートしていますか?
Docker はブリッジ モードをサポートしています。Docker ネットワーク ブリッジ ブリッジ モードは、コンテナーを作成および実行するときのデフォルトのモードです。このモードでは、各コンテナーに独立したネットワーク カードが割り当てられ、デフォルトまたは指定されたブリッジにブリッジされます。同じコンテナーブリッジの下で相互に通信できます。
このチュートリアルの動作環境: linux7.3 システム、docker-1.13.1 バージョン、Dell G3 コンピューター。
Docker はブリッジ モードをサポートします
Docker をインストールすると、docker0 という名前の仮想ブリッジが作成されます。別の構成をしない限り、新しく作成されたコンテナは、この仮想ブリッジによって提供されるスタイルに自動的に接続されます。ブリッジ ネットワークは、同じホスト上の Docker コンテナが相互に通信するために使用されます。同じブリッジに接続されている Docker コンテナは、相互に通信できます。 。
ブリッジは、ホストの個別のネットワーク カード デバイスに相当します。ホスト上で実行されている各コンテナのスイッチに相当します。すべてのコンテナの仮想ネットワーク ケーブルの一端は docker0 に接続されます。
コンテナはローカル ホスト経由でインターネットに接続します。コンテナは veth という名前の仮想ネットワーク カードを作成します。ネットワーク カードの一方の端は docker0 ブリッジに接続され、もう一方の端はコンテナに接続されますコンテナは、ブリッジと割り当てられた IP アドレスを介してインターネットにアクセスできます。
独自のブリッジ ネットワークをカスタマイズすることもできます。Docker ドキュメントでは、カスタム ブリッジ ネットワークの使用を推奨しています。
ブリッジ モード インスタンス
コンテナをインポートし、開始します
docker load < /share/images/httpd.tar docker run -d --name httpd -p 80:80 httpd
検証
docker exec -it httpd cat /etc/hosts
カスタム ネットワークの作成
カスタム ネットワークを作成します。サブネット、IP アドレス範囲、ゲートウェイ、およびその他のネットワーク構成
docker network create --driver bridge --subnet 172.22.16.0/24 --gateway 172.22.16.1 mynet2
Docker ネットワークをチェックして、正常に作成されたかどうかを確認します。
docker network ls
カスタム ネットワークの詳細を表示
brctl show ifconfig docker network inspect mynet2
コンテナ bb1 を作成し、カスタム ネットワークに接続し、コンテナの検証を入力すると、コンテナの IP アドレスが 172.22 であることがわかります。 16.2
docker run --name bb1 -it --network mynet2 busybox:latest ifconfig
検証後、Ctrl P を押してから Ctrl Q を押して、コンテナを閉じずに bb1 コンテナからホスト環境に戻ります。bb1
別のコンテナ bb2 を作成し、ネットワークにも接続します。 mynet2
docker run --name bb2 --network mynet2 -it busybox:latest
コンテナに入り、bb1 コンテナの IP アドレスにアクセスして確認します。
ping 172.22.16.2
は次のような応答を取得します
PING 172.22.16.2 (172.22.16.2): 56 data bytes 64 bytes from 172.22.16.2: seq=0 ttl=64 time=0.439 ms 64 bytes from 172.22.16.2: seq=1 ttl=64 time=0.140 ms 64 bytes from 172.22.16.2: seq=2 ttl=64 time=0.129 ms
概要
Docker ネットワーク ブリッジ モードは、コンテナーを作成および実行するときのデフォルトのモードです。このモードでは、各コンテナに独立したネットワーク カードを割り当て、それをデフォルトまたは指定されたブリッジにブリッジし、同じブリッジ下のコンテナは相互に通信できます。個々のネットワークのニーズを満たすカスタム ブリッジを作成することもできます。
推奨される学習: 「docker ビデオ チュートリアル 」
以上がDocker はブリッジ モードをサポートしていますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











PyCharm でプロジェクトをパッケージ化するには 4 つの方法があります。 別個の実行可能ファイルとしてパッケージ化する: EXE 単一ファイル形式にエクスポートする。インストーラーとしてパッケージ化されています: Setuptools Makefile を生成してビルドします。 Docker イメージとしてパッケージ化する: イメージ名を指定し、ビルド オプションを調整してビルドします。コンテナとしてパッケージ化する: ビルドするイメージを指定し、ランタイム オプションを調整して、コンテナを起動します。

ピン張りのノードの詳細な説明とインストールガイドこの記事では、ピネットワークのエコシステムを詳細に紹介します - PIノードは、ピン系生態系における重要な役割であり、設置と構成の完全な手順を提供します。 Pinetworkブロックチェーンテストネットワークの発売後、PIノードは多くの先駆者の重要な部分になり、テストに積極的に参加し、今後のメインネットワークリリースの準備をしています。まだピン張りのものがわからない場合は、ピコインとは何かを参照してください。リストの価格はいくらですか? PIの使用、マイニング、セキュリティ分析。パインワークとは何ですか?ピン競技プロジェクトは2019年に開始され、独占的な暗号通貨PIコインを所有しています。このプロジェクトは、誰もが参加できるものを作成することを目指しています

回答: PHP マイクロサービスは、アジャイル開発のために HelmCharts でデプロイされ、分離とスケーラビリティのために DockerContainer でコンテナ化されます。詳細説明: HelmCharts を使用して PHP マイクロサービスを自動的にデプロイし、アジャイル開発を実現します。 Docker イメージを使用すると、マイクロサービスの迅速な反復とバージョン管理が可能になります。 DockerContainer 標準はマイクロサービスを分離し、Kubernetes がコンテナの可用性とスケーラビリティを管理します。 Prometheus と Grafana を使用して、マイクロサービスのパフォーマンスと健全性を監視し、アラームと自動修復メカニズムを作成します。

Go プログラムを開始するには、次の 4 つの方法があります。 コマンド ラインを使用する: go run main.go IDE の [実行] または [デバッグ] メニューから開始する コンテナ オーケストレーション ツール (Docker や Kubernetes など) を使用してコンテナを開始する systemd またはUnix システム上のスーパーバイザ システム サービスとして実行

概要 LLaMA-3 (LargeLanguageModelMetaAI3) は、Meta Company が開発した大規模なオープンソースの生成人工知能モデルです。前世代のLLaMA-2と比べてモデル構造に大きな変更はありません。 LLaMA-3 モデルは、さまざまなアプリケーションのニーズやコンピューティング リソースに合わせて、小規模、中規模、大規模などのさまざまな規模のバージョンに分割されています。小型モデルのパラメータ サイズは 8B、中型モデルのパラメータ サイズは 70B、大型モデルのパラメータ サイズは 400B に達します。ただし、トレーニング中の目標は、マルチモーダルおよび複数言語の機能を達成することであり、その結果は GPT4/GPT4V に匹敵することが期待されます。 Ollama をインストールするOllama は、オープンソースの大規模言語モデル (LL) です。

DeepSeekをインストールするには、Dockerコンテナ(最も便利な場合は、互換性について心配する必要はありません)を使用して、事前コンパイルパッケージ(Windowsユーザー向け)を使用してソースからコンパイル(経験豊富な開発者向け)を含む多くの方法があります。公式文書は慎重に文書化され、不必要なトラブルを避けるために完全に準備します。

PHP 分散システム アーキテクチャは、ネットワークに接続されたマシン全体にさまざまなコンポーネントを分散することで、スケーラビリティ、パフォーマンス、およびフォールト トレランスを実現します。このアーキテクチャには、アプリケーション サーバー、メッセージ キュー、データベース、キャッシュ、ロード バランサーが含まれます。 PHP アプリケーションを分散アーキテクチャに移行する手順は次のとおりです。 サービス境界の特定 メッセージ キュー システムの選択 マイクロサービス フレームワークの採用 コンテナ管理への展開 サービスの検出

回答: PHPCI/CD を使用して、CI/CD パイプラインの設定、自動化されたテストおよび展開プロセスなどの迅速な反復を実現します。 CI/CD パイプラインのセットアップ: CI/CD ツールを選択し、コード リポジトリを構成し、ビルド パイプラインを定義します。自動テスト: 単体テストと統合テストを作成し、テスト フレームワークを使用してテストを簡素化します。実際のケース: TravisCI の使用: TravisCI をインストールし、パイプラインを定義し、パイプラインを有効にして、結果を表示します。継続的デリバリーを実装します。展開ツールを選択し、展開パイプラインを定義し、展開を自動化します。利点: 開発効率が向上し、エラーが減少し、納期が短縮されます。
