Table des matières
Utilisez Prometheus pour la surveillance des applications
Utilisez ElasticSearch et Logstash pour la gestion des journaux
Maison Opération et maintenance exploitation et maintenance Linux Comment utiliser Docker pour la surveillance des applications et la gestion des journaux

Comment utiliser Docker pour la surveillance des applications et la gestion des journaux

Nov 07, 2023 pm 04:58 PM
docker 监控 日志管理

Comment utiliser Docker pour la surveillance des applications et la gestion des journaux

Docker est devenu une technologie essentielle dans les applications modernes, mais utiliser Docker pour la surveillance des applications et la gestion des journaux est un défi. Avec l'amélioration continue des fonctions réseau de Docker, telles que la découverte de services et l'équilibrage de charge, nous avons de plus en plus besoin d'un système de surveillance des applications complet, stable et efficace.

Dans cet article, nous présenterons brièvement l'utilisation de Docker pour la surveillance des applications et la gestion des journaux et donnerons des exemples de code spécifiques.

Utilisez Prometheus pour la surveillance des applications

Prometheus est un outil open source de surveillance et d'avertissement de service basé sur un modèle Pull développé par SoundCloud. Il est écrit en langage Go et est largement utilisé dans les solutions de microservices et les environnements cloud. En tant qu'outil de surveillance, il peut surveiller le processeur, la mémoire, le réseau et le disque de Docker, etc., et prend également en charge la commutation de données multidimensionnelle, les fonctions flexibles de requête, d'alarme et de visualisation, vous permettant de réagir rapidement et de prendre des décisions rapidement.

Une autre chose à noter est que Prometheus doit échantillonner via le mode Pull, c'est-à-dire accéder à l'interface /metrics dans l'application surveillée pour obtenir des données de surveillance. Par conséquent, lors du démarrage de l'image de l'application surveillée, vous devez d'abord configurer l'adresse IP et le port pouvant accéder à Prometheus dans l'interface /metrics. Vous trouverez ci-dessous une simple application Node.js.

const express = require('express')
const app = express()

app.get('/', (req, res) => {
  res.send('Hello World!')
})

app.get('/metrics', (req, res) => {
  res.send(`
    # HELP api_calls_total Total API calls
    # TYPE api_calls_total counter
    api_calls_total 100
  `)
})

app.listen(3000, () => {
  console.log('Example app listening on port 3000!')
})
Copier après la connexion

Dans ce code, nous renvoyons un indicateur de surveillance api_calls_total via l'interface /metrics.

Ensuite, téléchargez l'image Docker de Prometheus depuis le site officiel et créez un fichier docker-compose.yml, et dans ce fichier, nous obtenons les données de l'application Node.js.

version: '3'
services:
  node:
    image: node:lts
    command: node index.js
    ports:
      - 3000:3000

  prometheus:
    image: prom/prometheus:v2.25.2
    volumes:
      - ./prometheus:/etc/prometheus
    command:
      - '--config.file=/etc/prometheus/prometheus.yml'
      - '--storage.tsdb.retention.time=15d'
    ports:
      - 9090:9090
Copier après la connexion

Dans le fichier docker-compose.yml, nous définissons deux services, l'un est le service Node qui exécute l'application Node.js et l'autre est le service Prometheus pour la surveillance. Parmi eux, le port publié par le service Node est le port 3000. Grâce au mappage de ports, l'interface /metrics de l'application Node est accessible via l'IP et le port 3000 dans docker-compose.yml. Prometheus peut accéder aux données de l'indicateur de surveillance correspondant via le port 9090.

Enfin, dans le fichier prometheus.yml, nous devons définir la source de données à obtenir.

global:
  scrape_interval:     15s
  evaluation_interval: 15s

scrape_configs:
  - job_name: 'node-exporter'
    static_configs:
    - targets: ['node:9100']

  - job_name: 'node-js-app'
    static_configs:
    - targets: ['node:3000']
Copier après la connexion

Dans ce fichier, nous définissons les indicateurs de toutes les applications Node.js à collecter, où le paramètre cibles est l'adresse IP de l'application Node.js et son numéro de port correspondant. Ici, nous utilisons le nœud et le port 3000.

Enfin, exécutez la commande docker-compose up pour démarrer l'ensemble de l'application et son service de surveillance, et affichez les métriques des membres dans Prometheus.

Utilisez ElasticSearch et Logstash pour la gestion des journaux

Dans Docker, les données des journaux d'application sont distribuées dans différents conteneurs Docker. Si vous souhaitez gérer ces journaux dans un endroit centralisé, vous pouvez utiliser ElasticSearch et Logstash dans ELK pour gérer les journaux de manière centralisée afin de faciliter la surveillance et l'analyse des ressources informatiques.

Avant de commencer, vous devez télécharger les images Docker de Logstash et ElasticSearch et créer un fichier docker-compose.yml.

Dans ce fichier, nous définissons trois services, parmi lesquels bls est un service API utilisé pour simuler les journaux d'entreprise. Après chaque réponse, un journal sera enregistré sur la sortie standard et les fichiers journaux. Le service logstash est construit à partir de l'image Docker officiellement fournie par Logstash et est utilisé pour collecter, filtrer et transmettre des journaux. Le service ElasticSearch est utilisé pour stocker et récupérer les journaux.

version: '3'
services:
  bls:
    image: nginx:alpine
    volumes:
      - ./log:/var/log/nginx
      - ./public:/usr/share/nginx/html:ro
    ports:
      - "8000:80"
    logging:
      driver: "json-file"
      options:
        max-size: "10m"
        max-file: "10"

  logstash:
    image: logstash:7.10.1
    volumes:
      - ./logstash/pipeline:/usr/share/logstash/pipeline
    environment:
      - "ES_HOST=elasticsearch"
    depends_on:
      - elasticsearch

  elasticsearch:
    image: elasticsearch:7.10.1
    environment:
      - "http.host=0.0.0.0"
      - "discovery.type=single-node"
    volumes:
      - ./elasticsearch:/usr/share/elasticsearch/data
Copier après la connexion

Dans le fichier de configuration, nous mappons le chemin dans le conteneur vers le système de fichiers journaux de l'hôte. Dans le même temps, grâce à l'option de journalisation, la taille du volume et la quantité du journal sont définies pour limiter le stockage occupé par le journal.

Dans le fichier de configuration logstash, nous définissons un nouveau pipeline nommé nginx_pipeline.conf, qui est utilisé pour gérer la collecte, le filtrage et la transmission des journaux nginx. De la même manière que fonctionne ELK, logstash traitera les journaux reçus en fonction de différentes conditions et les enverra au cluster Elasticsearch déjà créé. Dans ce fichier de configuration, nous définissons la logique de traitement suivante : nginx_pipeline.conf,该文件用于处理nginx日志的收集、过滤和传输。与ELK的工作原理相同,logstash将根据不同的条件,对接收到的日志进行处理,并将其发送到已经创建的 Elasticsearch 集群中。在该配置文件中,我们定义了如下处理逻辑:

input {
  file {
    path => "/var/log/nginx/access.log"
  }
}

filter {
  grok {
    match => { "message" => "%{COMBINEDAPACHELOG}" }
  }
}

output {
  elasticsearch {
    hosts => [ "${ES_HOST}:9200" ]
    index => "nginx_log_index"
  }
}
Copier après la connexion

在该配置文件中,我们定义了一个name为file的输入,表示要从本地Log文件中读取数据。接着,我们引入了使用grok库来解析符合特定模板的日志的filter。最后,我们定义了输出,其将数据传输到 Elasticsearch 集群的地址,同时将检索和报告通过环境变量ES_HOSTrrreee

Dans ce fichier de configuration, nous définissons une entrée nommée file, ce qui signifie que nous voulons lire les données du fichier Log local. Ensuite, nous avons introduit un filtre qui utilise la bibliothèque grok pour analyser les journaux correspondant à un modèle spécifique. Enfin, nous définissons la sortie, qui transfère les données à l'adresse du cluster Elasticsearch, tout en transmettant la récupération et le reporting dans le conteneur via la variable d'environnement ES_HOST.

En fin de compte, après avoir terminé toute la configuration ELK comme ci-dessus, nous obtiendrons un système de gestion des journaux efficace. Chaque journal sera envoyé à un endroit centralisé et intégré, permettant des opérations de recherche, de filtrage et de visualisation faciles. 🎜

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Développement et exploitation agiles de la conteneurisation de microservices PHP Développement et exploitation agiles de la conteneurisation de microservices PHP May 08, 2024 pm 02:21 PM

Réponse : Les microservices PHP sont déployés avec HelmCharts pour un développement agile et conteneurisés avec DockerContainer pour l'isolation et l'évolutivité. Description détaillée : utilisez HelmCharts pour déployer automatiquement des microservices PHP afin de réaliser un développement agile. Les images Docker permettent une itération rapide et un contrôle de version des microservices. Le standard DockerContainer isole les microservices et Kubernetes gère la disponibilité et l'évolutivité des conteneurs. Utilisez Prometheus et Grafana pour surveiller les performances et l'état des microservices, et créer des alarmes et des mécanismes de réparation automatiques.

Enseignement du nœud PI: Qu'est-ce qu'un nœud PI? Comment installer et configurer le nœud PI? Enseignement du nœud PI: Qu'est-ce qu'un nœud PI? Comment installer et configurer le nœud PI? Mar 05, 2025 pm 05:57 PM

Explication détaillée et guide d'installation pour les nœuds de pignon Cet article introduira l'écosystème de pignon en détail - nœuds PI, un rôle clé dans l'écosystème de pignon et fournir des étapes complètes pour l'installation et la configuration. Après le lancement du réseau de test de la blockchain pèse, les nœuds PI sont devenus une partie importante de nombreux pionniers participant activement aux tests, se préparant à la prochaine version du réseau principal. Si vous ne connaissez pas encore Pinetwork, veuillez vous référer à ce qu'est Picoin? Quel est le prix de l'inscription? PI Utilisation, exploitation minière et sécurité. Qu'est-ce que Pinetwork? Le projet Pinetwork a commencé en 2019 et possède sa pièce exclusive de crypto-monnaie PI. Le projet vise à en créer un que tout le monde peut participer

Comment installer Deepseek Comment installer Deepseek Feb 19, 2025 pm 05:48 PM

Il existe de nombreuses façons d'installer Deepseek, notamment: Compiler à partir de Source (pour les développeurs expérimentés) en utilisant des packages précompilés (pour les utilisateurs de Windows) à l'aide de conteneurs Docker (pour le plus pratique, pas besoin de s'inquiéter de la compatibilité), quelle que soit la méthode que vous choisissez, veuillez lire Les documents officiels documentent soigneusement et les préparent pleinement à éviter des problèmes inutiles.

Comment utiliser PHP CI/CD pour itérer rapidement ? Comment utiliser PHP CI/CD pour itérer rapidement ? May 08, 2024 pm 10:15 PM

Réponse : Utilisez PHPCI/CD pour réaliser une itération rapide, y compris la configuration de pipelines CI/CD, de tests automatisés et de processus de déploiement. Configurer un pipeline CI/CD : sélectionnez un outil CI/CD, configurez le référentiel de code et définissez le pipeline de build. Tests automatisés : rédigez des tests unitaires et d'intégration et utilisez des frameworks de test pour simplifier les tests. Cas pratique : Utilisation de TravisCI : Installez TravisCI, définissez le pipeline, activez le pipeline et visualisez les résultats. Mettez en œuvre la livraison continue : sélectionnez les outils de déploiement, définissez les pipelines de déploiement et automatisez le déploiement. Avantages : améliorez l’efficacité du développement, réduisez les erreurs et raccourcissez les délais de livraison.

Déployer des applications JavaEE à l'aide de conteneurs Docker Déployer des applications JavaEE à l'aide de conteneurs Docker Jun 05, 2024 pm 08:29 PM

Déployez des applications Java EE à l'aide de conteneurs Docker : créez un fichier Docker pour définir l'image, créez l'image, exécutez le conteneur et mappez le port, puis accédez à l'application dans le navigateur. Exemple d'application JavaEE : l'API REST interagit avec la base de données, accessible sur localhost après déploiement via Docker.

Comment installer l'extension Docker dans vscode Étapes pour installer l'extension Docker dans vscode Comment installer l'extension Docker dans vscode Étapes pour installer l'extension Docker dans vscode May 09, 2024 pm 03:25 PM

1. Tout d'abord, après avoir ouvert l'interface, cliquez sur le bouton icône d'extension à gauche 2. Ensuite, recherchez l'emplacement de la barre de recherche dans la page d'extension ouverte 3. Ensuite, entrez le mot Docker avec la souris pour trouver le plug-in d'extension 4. . Enfin, sélectionnez le plug-in cible et cliquez à droite. Cliquez simplement sur le bouton d'installation dans le coin inférieur.

Questions et réponses sur la conception de l'architecture de microservices d'applications d'entreprise PHP Questions et réponses sur la conception de l'architecture de microservices d'applications d'entreprise PHP May 07, 2024 am 09:36 AM

L'architecture des microservices utilise des frameworks PHP (tels que Symfony et Laravel) pour implémenter des microservices et suit les principes RESTful et les formats de données standard pour concevoir des API. Les microservices communiquent via des files d'attente de messages, des requêtes HTTP ou gRPC et utilisent des outils tels que Prometheus et ELKStack pour la surveillance et le dépannage.

Pratique de surveillance conteneurisée et de gestion des journaux par microservice PHP Pratique de surveillance conteneurisée et de gestion des journaux par microservice PHP May 08, 2024 pm 12:06 PM

Surveillance conteneurisée des microservices PHP et surveillance de la gestion des journaux : utilisez Prometheus et Grafana pour surveiller l'utilisation des ressources, le nombre de requêtes et la latence. Gestion des journaux : utilisez ELKStack (ElasticSearch, Logstash, Kibana) pour collecter, analyser et visualiser les journaux. Déployez l'agent Filebeat pour envoyer les journaux à ElasticSearch.

See all articles