


So verwenden Sie Docker für die Anwendungsüberwachung und Protokollverwaltung
Docker ist zu einer unverzichtbaren Technologie in modernen Anwendungen geworden, aber die Verwendung von Docker für die Anwendungsüberwachung und Protokollverwaltung ist eine Herausforderung. Mit der kontinuierlichen Verbesserung der Docker-Netzwerkfunktionen wie Service Discovery und Load Balancing benötigen wir zunehmend ein vollständiges, stabiles und effizientes Anwendungsüberwachungssystem.
In diesem Artikel stellen wir kurz die Verwendung von Docker für die Anwendungsüberwachung und Protokollverwaltung vor und geben konkrete Codebeispiele.
Verwenden Sie Prometheus zur Anwendungsüberwachung
Prometheus ist ein von SoundCloud entwickeltes Open-Source-Tool zur Überwachung und Warnung von Diensten auf Pull-Modellbasis. Es ist in der Go-Sprache geschrieben und wird häufig in Microservice-Lösungen und Cloud-Umgebungen verwendet. Als Überwachungstool kann es die CPU, den Speicher, das Netzwerk und die Festplatte usw. von Docker überwachen und unterstützt außerdem mehrdimensionale Datenvermittlung sowie flexible Abfrage-, Alarm- und Visualisierungsfunktionen, sodass Sie schnell reagieren und Entscheidungen treffen können.
Eine weitere zu beachtende Sache ist, dass Prometheus im Pull-Modus Stichproben durchführen muss, d. h. auf die /metrics-Schnittstelle in der überwachten Anwendung zugreifen muss, um Überwachungsdaten zu erhalten. Daher müssen Sie beim Starten des überwachten Anwendungsimages zunächst die IP und den Port konfigurieren, die auf Prometheus zugreifen können, in der /metrics-Schnittstelle. Unten finden Sie eine einfache Node.js-Anwendung.
const express = require('express') const app = express() app.get('/', (req, res) => { res.send('Hello World!') }) app.get('/metrics', (req, res) => { res.send(` # HELP api_calls_total Total API calls # TYPE api_calls_total counter api_calls_total 100 `) }) app.listen(3000, () => { console.log('Example app listening on port 3000!') })
In diesem Code geben wir einen api_calls_total-Überwachungsindikator über die /metrics-Schnittstelle zurück.
Als nächstes laden Sie das Docker-Image von Prometheus von der offiziellen Website herunter und erstellen eine docker-compose.yml-Datei. In dieser Datei erhalten wir die Daten der Node.js-Anwendung.
version: '3' services: node: image: node:lts command: node index.js ports: - 3000:3000 prometheus: image: prom/prometheus:v2.25.2 volumes: - ./prometheus:/etc/prometheus command: - '--config.file=/etc/prometheus/prometheus.yml' - '--storage.tsdb.retention.time=15d' ports: - 9090:9090
In der Datei docker-compose.yml definieren wir zwei Dienste, einen ist der Node-Dienst, der die Node.js-Anwendung ausführt, und der andere ist der Prometheus-Dienst zur Überwachung. Unter anderem ist der vom Node-Dienst veröffentlichte Port Port 3000. Durch Portzuordnung kann über die IP-Adresse und den 3000-Port in docker-compose.yml auf die /metrics-Schnittstelle der Node-Anwendung zugegriffen werden. Prometheus kann über Port 9090 auf die entsprechenden Überwachungsindikatordaten zugreifen.
Abschließend müssen wir in der Datei prometheus.yml die abzurufende Datenquelle definieren.
global: scrape_interval: 15s evaluation_interval: 15s scrape_configs: - job_name: 'node-exporter' static_configs: - targets: ['node:9100'] - job_name: 'node-js-app' static_configs: - targets: ['node:3000']
In dieser Datei definieren wir die Indikatoren aller zu erfassenden Node.js-Anwendungen, wobei der Zielparameter die IP-Adresse der Node.js-Anwendung und die entsprechende Portnummer ist. Hier verwenden wir Knoten und Port 3000.
Führen Sie abschließend den Befehl docker-compose up aus, um die gesamte Anwendung und ihren Überwachungsdienst zu starten und die Mitgliedsmetriken in Prometheus anzuzeigen.
Verwenden Sie ElasticSearch und Logstash für die Protokollverwaltung
In Docker werden Anwendungsprotokolldaten in verschiedenen Docker-Containern verteilt. Wenn Sie diese Protokolle an einem zentralen Ort verwalten möchten, können Sie ElasticSearch und Logstash in ELK verwenden, um die Protokolle zentral zu verwalten und so die Überwachung und Analyse von Computerressourcen zu erleichtern.
Bevor Sie beginnen, müssen Sie die Docker-Images von Logstash und ElasticSearch herunterladen und eine docker-compose.yml-Datei erstellen.
In dieser Datei definieren wir drei Dienste, darunter bls, einen API-Dienst zur Simulation von Geschäftsprotokollen. Nach jeder Antwort wird ein Protokoll in Standard- und Protokolldateien aufgezeichnet. Der Logstash-Dienst basiert auf dem offiziell von Logstash bereitgestellten Docker-Image und wird zum Sammeln, Filtern und Übertragen von Protokollen verwendet. Der ElasticSearch-Dienst wird zum Speichern und Abrufen von Protokollen verwendet.
version: '3' services: bls: image: nginx:alpine volumes: - ./log:/var/log/nginx - ./public:/usr/share/nginx/html:ro ports: - "8000:80" logging: driver: "json-file" options: max-size: "10m" max-file: "10" logstash: image: logstash:7.10.1 volumes: - ./logstash/pipeline:/usr/share/logstash/pipeline environment: - "ES_HOST=elasticsearch" depends_on: - elasticsearch elasticsearch: image: elasticsearch:7.10.1 environment: - "http.host=0.0.0.0" - "discovery.type=single-node" volumes: - ./elasticsearch:/usr/share/elasticsearch/data
In der Konfigurationsdatei ordnen wir den Pfad im Container dem Protokolldateisystem des Hosts zu. Gleichzeitig werden über die Protokollierungsoption die Volumengröße und die Menge des Protokolls definiert, um den vom Protokoll belegten Speicherplatz zu begrenzen.
In der Logstash-Konfigurationsdatei definieren wir eine neue Pipeline mit dem Namen nginx_pipeline.conf
, die für die Erfassung, Filterung und Übertragung von Nginx-Protokollen verwendet wird. Ähnlich wie ELK verarbeitet Logstash die empfangenen Protokolle basierend auf unterschiedlichen Bedingungen und sendet sie an den bereits erstellten Elasticsearch-Cluster. In dieser Konfigurationsdatei definieren wir die folgende Verarbeitungslogik: nginx_pipeline.conf
,该文件用于处理nginx日志的收集、过滤和传输。与ELK的工作原理相同,logstash将根据不同的条件,对接收到的日志进行处理,并将其发送到已经创建的 Elasticsearch 集群中。在该配置文件中,我们定义了如下处理逻辑:
input { file { path => "/var/log/nginx/access.log" } } filter { grok { match => { "message" => "%{COMBINEDAPACHELOG}" } } } output { elasticsearch { hosts => [ "${ES_HOST}:9200" ] index => "nginx_log_index" } }
在该配置文件中,我们定义了一个name为file的输入,表示要从本地Log文件中读取数据。接着,我们引入了使用grok库来解析符合特定模板的日志的filter。最后,我们定义了输出,其将数据传输到 Elasticsearch 集群的地址,同时将检索和报告通过环境变量ES_HOST
rrreee
ES_HOST
übergeben werden. Am Ende erhalten wir nach Abschluss der gesamten ELK-Konfiguration ein effizientes Protokollverwaltungssystem, das an einen zentralen Ort gesendet und zusammengeführt wird, was einfache Such-, Filter- und Visualisierungsvorgänge ermöglicht. 🎜Das obige ist der detaillierte Inhalt vonSo verwenden Sie Docker für die Anwendungsüberwachung und Protokollverwaltung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Antwort: PHP-Microservices werden mit HelmCharts für eine agile Entwicklung bereitgestellt und mit DockerContainer für Isolation und Skalierbarkeit in Containern verpackt. Detaillierte Beschreibung: Verwenden Sie HelmCharts, um PHP-Microservices automatisch bereitzustellen, um eine agile Entwicklung zu erreichen. Docker-Images ermöglichen eine schnelle Iteration und Versionskontrolle von Microservices. Der DockerContainer-Standard isoliert Microservices und Kubernetes verwaltet die Verfügbarkeit und Skalierbarkeit der Container. Verwenden Sie Prometheus und Grafana, um die Leistung und den Zustand von Microservices zu überwachen und Alarme und automatische Reparaturmechanismen zu erstellen.

Detaillierte Erläuterungs- und Installationshandbuch für Pinetwork -Knoten In diesem Artikel wird das Pinetwork -Ökosystem im Detail vorgestellt - PI -Knoten, eine Schlüsselrolle im Pinetwork -Ökosystem und vollständige Schritte für die Installation und Konfiguration. Nach dem Start des Pinetwork -Blockchain -Testnetzes sind PI -Knoten zu einem wichtigen Bestandteil vieler Pioniere geworden, die aktiv an den Tests teilnehmen und sich auf die bevorstehende Hauptnetzwerkveröffentlichung vorbereiten. Wenn Sie Pinetwork noch nicht kennen, wenden Sie sich bitte an was Picoin ist? Was ist der Preis für die Auflistung? PI -Nutzung, Bergbau und Sicherheitsanalyse. Was ist Pinetwork? Das Pinetwork -Projekt begann 2019 und besitzt seine exklusive Kryptowährung PI -Münze. Das Projekt zielt darauf ab, eine zu erstellen, an der jeder teilnehmen kann

Es gibt viele Möglichkeiten, Deepseek zu installieren, einschließlich: kompilieren Sie von Quelle (für erfahrene Entwickler) mit vorberechtigten Paketen (für Windows -Benutzer) mit Docker -Containern (für bequem am besten, um die Kompatibilität nicht zu sorgen), unabhängig von der Methode, die Sie auswählen, bitte lesen Die offiziellen Dokumente vorbereiten sie sorgfältig und bereiten sie voll und ganz vor, um unnötige Schwierigkeiten zu vermeiden.

Antwort: Verwenden Sie PHPCI/CD, um eine schnelle Iteration zu erreichen, einschließlich der Einrichtung von CI/CD-Pipelines sowie automatisierten Test- und Bereitstellungsprozessen. Richten Sie eine CI/CD-Pipeline ein: Wählen Sie ein CI/CD-Tool aus, konfigurieren Sie das Code-Repository und definieren Sie die Build-Pipeline. Automatisierte Tests: Schreiben Sie Unit- und Integrationstests und verwenden Sie Test-Frameworks, um das Testen zu vereinfachen. Praktischer Fall: Verwendung von TravisCI: Installieren Sie TravisCI, definieren Sie die Pipeline, aktivieren Sie die Pipeline und sehen Sie sich die Ergebnisse an. Implementieren Sie Continuous Delivery: Wählen Sie Bereitstellungstools aus, definieren Sie Bereitstellungspipelines und automatisieren Sie die Bereitstellung. Vorteile: Verbessern Sie die Entwicklungseffizienz, reduzieren Sie Fehler und verkürzen Sie die Lieferzeit.

Stellen Sie Java EE-Anwendungen mithilfe von Docker-Containern bereit: Erstellen Sie eine Docker-Datei, um das Image zu definieren, erstellen Sie das Image, führen Sie den Container aus, ordnen Sie den Port zu und greifen Sie dann im Browser auf die Anwendung zu. Beispiel für eine JavaEE-Anwendung: Die REST-API interagiert mit der Datenbank und ist nach der Bereitstellung über Docker auf localhost zugänglich.

1. Klicken Sie nach dem Öffnen der Benutzeroberfläche zunächst auf die Schaltfläche mit dem Erweiterungssymbol auf der linken Seite. 2. Suchen Sie dann die Position der Suchleiste auf der geöffneten Erweiterungsseite. 3. Geben Sie dann mit der Maus das Wort Docker ein, um das Erweiterungs-Plug-in zu finden. 4 Wählen Sie abschließend das Ziel-Plug-in aus und klicken Sie einfach auf die Schaltfläche „Installieren“ in der unteren Ecke

Containerisierte PHP-Microservice-Überwachung und Protokollverwaltungsüberwachung: Verwenden Sie Prometheus und Grafana, um die Ressourcennutzung, die Anzahl der Anforderungen und die Latenz zu überwachen. Protokollverwaltung: Verwenden Sie ELKStack (ElasticSearch, Logstash, Kibana), um Protokolle zu sammeln, zu analysieren und zu visualisieren. Stellen Sie den Filebeat-Agenten bereit, um Protokolle an ElasticSearch zu senden.

Ursachen und Lösungen für Fehler Bei der Verwendung von PECL zur Installation von Erweiterungen in der Docker -Umgebung, wenn die Docker -Umgebung verwendet wird, begegnen wir häufig auf einige Kopfschmerzen ...
