ホームページ 運用・保守 Linuxの運用と保守 Docker を使用してコンテナーのログ分析と例外監視を行う方法

Docker を使用してコンテナーのログ分析と例外監視を行う方法

Nov 07, 2023 pm 02:09 PM
docker ログ分析 異常監視

Docker を使用してコンテナーのログ分析と例外監視を行う方法

Docker は、アプリケーションとその依存関係をコンテナにパッケージ化して、単一のポータブル アプリケーション ユニットとして実行する、一般的なコンテナ化テクノロジです。このテクノロジーにより、開発者はさまざまな環境でアプリケーションを簡単に展開および管理できます。実際のアプリケーションでは、Docker コンテナのログ分析と例外監視が非常に必要です。この記事では、次の側面を含む、コンテナー ログ分析と例外監視に Docker を使用する方法を紹介します。

  1. Docker コンテナー ログ
  2. Docker log コマンドを使用してログを表示します
  3. ログの収集と分析には Logstash を使用します
  4. データのインデックス作成と保存には Elasticsearch を使用します
  5. データ視覚化の表示には Kibana を使用します

まず知っておく必要がありますDockerコンテナのログについて。

1. Docker コンテナ ログ

Docker コンテナ ログには、アプリケーションの出力情報、エラー情報、アクセス ログ、システム ログなど、コンテナ内の操作情報が記録されます。この情報はアプリケーションの運用と保守、追跡、例外処理などにとって非常に重要であるため、Docker コンテナのログを収集して分析する必要があります。

2. Docker log コマンドを使用してログを表示します

Docker は、コンテナーによって出力されたログ情報を表示するために使用できる log コマンドを提供します。 log コマンドを使用すると、実行中のコンテナーのリアルタイム出力情報を簡単に表示し、この情報をコンソールに出力したり、ファイルに保存したりできます。以下は、log コマンドを使用してコンテナーのログを表示する例です。

// 查看容器ID为xxx的日志
docker logs xxx

// 查看容器ID为xxx的日志,输出到控制台并实时更新
docker logs -f xxx 

// 查看容器ID为xxx的最近10条日志
docker logs --tail 10 xxx 
ログイン後にコピー

log コマンドを使用すると、開発者はコンテナーのリアルタイムの出力情報を簡単に表示し、問題を迅速に特定できますが、この方法はホスト上のコンテナの場合、コンテナのサイズが大きくなると手動でログを参照することが困難になるため、ログ収集ツールを利用して自動的にログを収集・分析する必要があります。

3. ログの収集と分析に Logstash を使用する

Logstash は、ログの収集、フィルタリング、変換、送信のためのオープン ソース ツールです。データは入力プラグインを通じて収集され、次によって処理および変換されます。データをフィルターし、出力プラグインは処理されたデータを Elasticsearch、Kafka、Amazon S3 などの宛先に送信します。 Dockerコンテナのログ収集では、ログを収集・分析するツールとしてLogstashを利用できます。 Logstash を使用してログの収集と分析を行う例を以下に示します:

1. Logstash のインストール

公式 Web サイトから Logstash をダウンロードし、解凍して使用します。 Logstash を起動するコマンドは次のとおりです:

cd logstash-7.15.1/bin
./logstash -f logstash.conf
ログイン後にコピー

2. Logstash の設定

Logstash をコンテナのログ収集ツールとして使用するには、入力プラグインと出力プラグを設定する必要があります。 Logstash の -in。以下は、構成ファイル logstash.conf の例です。

input {
  docker {
    endpoint => "unix:///var/run/docker.sock"
    container_id => "ALL"
  }
}

filter {
  grok {
    match => { "message" => "%{COMBINEDAPACHELOG}" }
  }
}

output {
  elasticsearch {
    hosts => "localhost:9200"
  }
  stdout {
    codec => "json_lines"
  }
}
ログイン後にコピー

上記の構成ファイルは、すべての Docker コンテナーからログ情報を収集し、grok フィルターを通じてデータをフィルターおよび解析し、最後に出力する必要があることを意味します。処理されたデータを Elasticsearch に取り込みます。

4. データのインデックス作成とストレージに Elasticsearch を使用する

Elasticsearch は、さまざまな種類のドキュメントの検索に使用できる分散型オープンソース検索エンジンです。 Dockerコンテナのログ収集では、データのインデックスとストレージとしてElasticsearchを使用します。以下は、データのインデックス作成とストレージに Elasticsearch を使用する例です:

1. Elasticsearch をインストールします

公式 Web サイトから Elasticsearch をダウンロードし、ファイルを解凍して使用します。 Elasticsearch を開始するコマンドは次のとおりです:

cd elasticsearch-7.15.1/bin
./elasticsearch
ログイン後にコピー

2. Elasticsearch の構成

elasticsearch.yml ファイルを変更して、ES クラスターの名前とノード名を構成します。以下は、単純な elasticsearch.yml 設定ファイルの例です:

cluster.name: docker-cluster
node.name: es-node1
network.host: 0.0.0.0
ログイン後にコピー

上記の設定は、docker-cluster という名前のクラスターを作成することを意味します。ノード名は es-node1 で、ES サービスはすべてのノードにバインドされます。ネットワークインターフェース上で利用可能です。

3. インデックスの作成

Elasticsearch では、まずデータのインデックスを作成し、データ内のフィールドを指定する必要があります。サンプル コードは次のとおりです。

PUT /logstash-test
{
  "mappings": {
    "properties": {
      "host": {
        "type": "keyword"
      },
      "message": {
        "type": "text"
      },
      "path": {
        "type": "text"
      },
      "verb": {
        "type": "keyword"
      }
    }
  }
}
ログイン後にコピー

上記のコードは、Elasticsearch に「logstash-test」という名前のインデックスを作成し、インデックスに含まれるフィールドとフィールド タイプを定義します。

5.データ視覚化表示に Kibana を使用する

Kibana は、Elasticsearch から取得したデータを表示するために使用できるオープンソースのデータ視覚化ツールです。 Dockerコンテナのログ収集処理では、データの可視化表示にKibanaを使用します。以下は Kibana を使用したデータ可視化表示の例です:

1. Kibana のインストール

公式 Web サイトから Kibana をダウンロードし、解凍して使用します。 Kibana を起動するコマンドは次のとおりです:

cd kibana-7.15.1/bin
./kibana
ログイン後にコピー

2. インデックス テンプレートの設定

Kibana では、インデックス テンプレートを設定する必要があります。インデックス テンプレートには、データ フィールド定義とクエリ分析情報が含まれています。サンプル コードは次のとおりです。

PUT _index_template/logstash-template
{
  "index_patterns": ["logstash-*"],
  "template": {
    "mappings": {
      "properties": {
        "@timestamp": { "type": "date" },
        "@version": { "type": "keyword" },
        "message": { "type": "text" },
        "path": { "type": "text" }
      }
    }
  }
}
ログイン後にコピー

上記のコードは、「logstash-template」という名前のインデックス テンプレートが作成され、名前が「logstash-*」で始まるインデックスに適用されることを意味します。

3. データの視覚化

在Kibana的外掛程式面板中,可以選擇設定和管理視覺化範本。我們可以輕鬆地透過面板創建各種類型的視覺化圖表,如Line圖、Bar圖和Pie圖等等。

綜上所述,本文介紹如何使用Docker進行容器的日誌分析和異常監測,並給出了具體的程式碼範例。 Docker本身提供了log指令來查看容器的日誌,但手動查看日誌在容器規模擴大後變得更加困難。透過使用Logstash、Elasticsearch和Kibana這些工具,我們可以對容器的日誌進行自動化的收集和分析,並展示出容器的運作狀況,這對於應用程式的運維和故障處理都非常有幫助。

以上がDocker を使用してコンテナーのログ分析と例外監視を行う方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

pycharmでプロジェクトをパッケージ化する方法 pycharmでプロジェクトをパッケージ化する方法 Apr 25, 2024 am 03:54 AM

PyCharm でプロジェクトをパッケージ化するには 4 つの方法があります。 別個の実行可能ファイルとしてパッケージ化する: EXE 単一ファイル形式にエクスポートする。インストーラーとしてパッケージ化されています: Setuptools Makefile を生成してビルドします。 Docker イメージとしてパッケージ化する: イメージ名を指定し、ビルド オプションを調整してビルドします。コンテナとしてパッケージ化する: ビルドするイメージを指定し、ランタイム オプションを調整して、コンテナを起動します。

PIノードティーチング:PIノードとは何ですか? PIノードをインストールしてセットアップする方法は? PIノードティーチング:PIノードとは何ですか? PIノードをインストールしてセットアップする方法は? Mar 05, 2025 pm 05:57 PM

ピン張りのノードの詳細な説明とインストールガイドこの記事では、ピネットワークのエコシステムを詳細に紹介します - PIノードは、ピン系生態系における重要な役割であり、設置と構成の完全な手順を提供します。 Pinetworkブロックチェーンテストネットワークの発売後、PIノードは多くの先駆者の重要な部分になり、テストに積極的に参加し、今後のメインネットワークリリースの準備をしています。まだピン張りのものがわからない場合は、ピコインとは何かを参照してください。リストの価格はいくらですか? PIの使用、マイニング、セキュリティ分析。パインワークとは何ですか?ピン競技プロジェクトは2019年に開始され、独占的な暗号通貨PIコインを所有しています。このプロジェクトは、誰もが参加できるものを作成することを目指しています

PHPマイクロサービスコンテナ化のアジャイル開発と運用 PHPマイクロサービスコンテナ化のアジャイル開発と運用 May 08, 2024 pm 02:21 PM

回答: PHP マイクロサービスは、アジャイル開発のために HelmCharts でデプロイされ、分離とスケーラビリティのために DockerContainer でコンテナ化されます。詳細説明: HelmCharts を使用して PHP マイクロサービスを自動的にデプロイし、アジャイル開発を実現します。 Docker イメージを使用すると、マイクロサービスの迅速な反復とバージョン管理が可能になります。 DockerContainer 標準はマイクロサービスを分離し、Kubernetes がコンテナの可用性とスケーラビリティを管理します。 Prometheus と Grafana を使用して、マイクロサービスのパフォーマンスと健全性を監視し、アラームと自動修復メカニズムを作成します。

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了 Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了 Apr 26, 2024 am 10:19 AM

概要 LLaMA-3 (LargeLanguageModelMetaAI3) は、Meta Company が開発した大規模なオープンソースの生成人工知能モデルです。前世代のLLaMA-2と比べてモデル構造に大きな変更はありません。 LLaMA-3 モデルは、さまざまなアプリケーションのニーズやコンピューティング リソースに合わせて、小規模、中規模、大規模などのさまざまな規模のバージョンに分割されています。小型モデルのパラメータ サイズは 8B、中型モデルのパラメータ サイズは 70B、大型モデルのパラメータ サイズは 400B に達します。ただし、トレーニング中の目標は、マルチモーダルおよび複数言語の機能を達成することであり、その結果は GPT4/GPT4V に匹敵することが期待されます。 Ollama をインストールするOllama は、オープンソースの大規模言語モデル (LL) です。

DeepSeekをインストールする方法 DeepSeekをインストールする方法 Feb 19, 2025 pm 05:48 PM

DeepSeekをインストールするには、Dockerコンテナ(最も便利な場合は、互換性について心配する必要はありません)を使用して、事前コンパイルパッケージ(Windowsユーザー向け)を使用してソースからコンパイル(経験豊富な開発者向け)を含む多くの方法があります。公式文書は慎重に文書化され、不必要なトラブルを避けるために完全に準備します。

PHP 分散システムのアーキテクチャと実践 PHP 分散システムのアーキテクチャと実践 May 04, 2024 am 10:33 AM

PHP 分散システム アーキテクチャは、ネットワークに接続されたマシン全体にさまざまなコンポーネントを分散することで、スケーラビリティ、パフォーマンス、およびフォールト トレランスを実現します。このアーキテクチャには、アプリケーション サーバー、メッセージ キュー、データベース、キャッシュ、ロード バランサーが含まれます。 PHP アプリケーションを分散アーキテクチャに移行する手順は次のとおりです。 サービス境界の特定 メッセージ キュー システムの選択 マイクロサービス フレームワークの採用 コンテナ管理への展開 サービスの検出

コンテナ化を通じて Java 関数のパフォーマンスを最適化するにはどうすればよいですか? コンテナ化を通じて Java 関数のパフォーマンスを最適化するにはどうすればよいですか? Apr 29, 2024 pm 03:09 PM

コンテナ化により、次の方法で Java 関数のパフォーマンスが向上します。 リソースの分離 - 分離されたコンピューティング環境を確保し、リソースの競合を回避します。軽量 - 消費するシステム リソースが少なくなり、実行時のパフォーマンスが向上します。高速起動 - 関数の実行遅延を軽減します。一貫性 - アプリケーションとインフラストラクチャを分離して、環境全体で一貫した動作を保証します。

Dockerコンテナを使用したJavaEEアプリケーションのデプロイ Dockerコンテナを使用したJavaEEアプリケーションのデプロイ Jun 05, 2024 pm 08:29 PM

Docker コンテナを使用した Java EE アプリケーションのデプロイ: Dockerfile を作成してイメージを定義し、イメージを構築し、コンテナを実行してポートをマップし、ブラウザでアプリケーションにアクセスします。サンプル JavaEE アプリケーション: REST API はデータベースと対話し、Docker 経由でデプロイ後にローカルホストでアクセスできます。

See all articles