애플리케이션 모니터링 및 로그 관리에 Docker를 사용하는 방법
Docker는 현대 애플리케이션에서 필수적인 기술이 되었지만 애플리케이션 모니터링 및 로그 관리에 Docker를 사용하는 것은 어려운 일입니다. 서비스 검색 및 로드 밸런싱과 같은 Docker 네트워크 기능이 지속적으로 향상됨에 따라 완전하고 안정적이며 효율적인 애플리케이션 모니터링 시스템이 점점 더 필요해지고 있습니다.
이 기사에서는 애플리케이션 모니터링 및 로그 관리를 위한 Docker의 사용을 간략하게 소개하고 구체적인 코드 예제를 제공합니다.
애플리케이션 모니터링을 위해 Prometheus 사용
Prometheus는 SoundCloud에서 개발한 오픈 소스 풀 모델 기반 서비스 모니터링 및 경고 도구입니다. Go 언어로 작성되었으며 마이크로서비스 솔루션 및 클라우드 환경에서 널리 사용됩니다. 모니터링 도구로서 Docker의 CPU, 메모리, 네트워크 및 디스크 등을 모니터링할 수 있으며 다차원 데이터 전환, 유연한 쿼리, 경보 및 시각화 기능도 지원하므로 신속하게 대응하고 신속하게 의사결정을 내릴 수 있습니다.
또 한 가지 주목해야 할 점은 Prometheus가 풀 모드를 통해 샘플링해야 한다는 것입니다. 즉, 모니터링 데이터를 얻으려면 모니터링되는 애플리케이션의 /metrics 인터페이스에 액세스해야 합니다. 따라서 모니터링되는 애플리케이션 이미지를 시작할 때 먼저 Prometheus에 접속할 수 있는 IP와 포트를 /metrics 인터페이스에 구성해야 합니다. 다음은 간단한 Node.js 애플리케이션입니다.
const express = require('express') const app = express() app.get('/', (req, res) => { res.send('Hello World!') }) app.get('/metrics', (req, res) => { res.send(` # HELP api_calls_total Total API calls # TYPE api_calls_total counter api_calls_total 100 `) }) app.listen(3000, () => { console.log('Example app listening on port 3000!') })
이 코드에서는 /metrics 인터페이스를 통해 api_calls_total 모니터링 표시기를 반환합니다.
다음으로 공식 홈페이지에서 Prometheus의 Docker 이미지를 다운로드하고 docker-compose.yml 파일을 생성하고, 이 파일에서 Node.js 애플리케이션의 데이터를 얻습니다.
version: '3' services: node: image: node:lts command: node index.js ports: - 3000:3000 prometheus: image: prom/prometheus:v2.25.2 volumes: - ./prometheus:/etc/prometheus command: - '--config.file=/etc/prometheus/prometheus.yml' - '--storage.tsdb.retention.time=15d' ports: - 9090:9090
docker-compose.yml 파일에는 두 가지 서비스를 정의합니다. 하나는 Node.js 애플리케이션을 실행하는 Node 서비스이고 다른 하나는 모니터링을 위한 Prometheus 서비스입니다. 그 중 Node 서비스에서 공개하는 포트는 포트 3000이다. 포트 매핑을 통해 docker-compose.yml의 IP와 3000 포트를 통해 Node 애플리케이션의 /metrics 인터페이스에 접근할 수 있다. Prometheus는 포트 9090을 통해 해당 모니터링 지표 데이터에 액세스할 수 있습니다.
마지막으로 prometheus.yml 파일에서 얻을 데이터 소스를 정의해야 합니다.
global: scrape_interval: 15s evaluation_interval: 15s scrape_configs: - job_name: 'node-exporter' static_configs: - targets: ['node:9100'] - job_name: 'node-js-app' static_configs: - targets: ['node:3000']
이 파일에서는 수집할 모든 Node.js 애플리케이션의 표시기를 정의합니다. 여기서 대상 매개변수는 Node.js 애플리케이션의 IP 주소와 해당 포트 번호입니다. 여기서는 노드와 포트 3000을 사용하고 있습니다.
마지막으로 docker-compose up 명령을 실행하여 전체 애플리케이션과 해당 모니터링 서비스를 시작하고 Prometheus에서 멤버 지표를 확인하세요.
로그 관리를 위해 ElasticSearch 및 Logstash 사용
Docker에서 애플리케이션 로그 데이터는 다양한 Docker 컨테이너에 배포됩니다. 이러한 로그를 중앙 집중식으로 관리하려는 경우 ELK의 ElasticSearch 및 Logstash를 사용하여 로그를 중앙에서 관리하면 컴퓨터 리소스를 더 쉽게 모니터링하고 분석할 수 있습니다.
시작하기 전에 Logstash 및 ElasticSearch의 Docker 이미지를 다운로드하고 docker-compose.yml 파일을 생성해야 합니다.
이 파일에는 세 가지 서비스가 정의되어 있으며, 그 중 bls는 비즈니스 로그를 시뮬레이션하는 데 사용되는 API 서비스입니다. 각 응답 후에는 로그가 stdout 및 로그 파일에 기록됩니다. Logstash 서비스는 Logstash에서 공식적으로 제공하는 Docker 이미지를 기반으로 구축되었으며 로그를 수집, 필터링 및 전송하는 데 사용됩니다. ElasticSearch 서비스는 로그를 저장하고 검색하는 데 사용됩니다.
version: '3' services: bls: image: nginx:alpine volumes: - ./log:/var/log/nginx - ./public:/usr/share/nginx/html:ro ports: - "8000:80" logging: driver: "json-file" options: max-size: "10m" max-file: "10" logstash: image: logstash:7.10.1 volumes: - ./logstash/pipeline:/usr/share/logstash/pipeline environment: - "ES_HOST=elasticsearch" depends_on: - elasticsearch elasticsearch: image: elasticsearch:7.10.1 environment: - "http.host=0.0.0.0" - "discovery.type=single-node" volumes: - ./elasticsearch:/usr/share/elasticsearch/data
구성 파일에서 컨테이너의 경로를 호스트의 로그 파일 시스템에 매핑합니다. 동시에, 로깅 옵션을 통해 로그의 볼륨 크기와 수량을 정의하여 로그가 차지하는 저장 공간을 제한합니다.
logstash 구성 파일에서 nginx 로그의 수집, 필터링 및 전송을 처리하는 데 사용되는 nginx_pipeline.conf
라는 새 파이프라인을 정의합니다. ELK 작동 방식과 유사하게, logstash는 다양한 조건에 따라 수신된 로그를 처리하고 이미 생성된 Elasticsearch 클러스터로 보냅니다. 이 구성 파일에서는 다음 처리 논리를 정의합니다. nginx_pipeline.conf
,该文件用于处理nginx日志的收集、过滤和传输。与ELK的工作原理相同,logstash将根据不同的条件,对接收到的日志进行处理,并将其发送到已经创建的 Elasticsearch 集群中。在该配置文件中,我们定义了如下处理逻辑:
input { file { path => "/var/log/nginx/access.log" } } filter { grok { match => { "message" => "%{COMBINEDAPACHELOG}" } } } output { elasticsearch { hosts => [ "${ES_HOST}:9200" ] index => "nginx_log_index" } }
在该配置文件中,我们定义了一个name为file的输入,表示要从本地Log文件中读取数据。接着,我们引入了使用grok库来解析符合特定模板的日志的filter。最后,我们定义了输出,其将数据传输到 Elasticsearch 集群的地址,同时将检索和报告通过环境变量ES_HOST
rrreee
ES_HOST
를 통해 컨테이너에 검색 및 보고를 전달하는 동시에 Elasticsearch 클러스터의 주소로 데이터를 전송하는 출력을 정의합니다. 결국 위와 같이 전체 ELK 구성이 완료되면 효율적인 로그 관리 시스템을 얻게 됩니다. 각 로그는 중앙 집중식 장소로 전송되고 통합되어 쉽게 검색, 필터링 및 시각화 작업이 가능합니다. 🎜위 내용은 애플리케이션 모니터링 및 로그 관리에 Docker를 사용하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











답변: PHP 마이크로서비스는 민첩한 개발을 위해 HelmCharts로 배포되고 격리 및 확장성을 위해 DockerContainer로 컨테이너화됩니다. 자세한 설명: HelmCharts를 사용하여 PHP 마이크로서비스를 자동으로 배포하여 민첩한 개발을 달성하세요. Docker 이미지를 사용하면 마이크로서비스의 신속한 반복 및 버전 제어가 가능합니다. DockerContainer 표준은 마이크로서비스를 격리하고 Kubernetes는 컨테이너의 가용성과 확장성을 관리합니다. Prometheus 및 Grafana를 사용하여 마이크로서비스 성능 및 상태를 모니터링하고 경보 및 자동 복구 메커니즘을 생성하세요.

Pinetwork 노드에 대한 자세한 설명 및 설치 안내서이 기사에서는 Pinetwork Ecosystem을 자세히 소개합니다. Pi 노드, Pinetwork 생태계의 주요 역할을 수행하고 설치 및 구성을위한 전체 단계를 제공합니다. Pinetwork 블록 체인 테스트 네트워크가 출시 된 후, PI 노드는 다가오는 주요 네트워크 릴리스를 준비하여 테스트에 적극적으로 참여하는 많은 개척자들의 중요한 부분이되었습니다. 아직 Pinetwork를 모른다면 Picoin이 무엇인지 참조하십시오. 리스팅 가격은 얼마입니까? PI 사용, 광업 및 보안 분석. Pinetwork 란 무엇입니까? Pinetwork 프로젝트는 2019 년에 시작되었으며 독점적 인 Cryptocurrency Pi Coin을 소유하고 있습니다. 이 프로젝트는 모든 사람이 참여할 수있는 사람을 만드는 것을 목표로합니다.

Docker 컨테이너를 사용하여 사전 컴파일 된 패키지 (Windows 사용자의 경우)를 사용하여 소스 (숙련 된 개발자)를 컴파일하는 것을 포함하여 DeepSeek를 설치하는 방법에는 여러 가지가 있습니다. 공식 문서는 신중하게 문서를 작성하고 불필요한 문제를 피하기 위해 완전히 준비합니다.

답변: CI/CD 파이프라인 설정, 자동화된 테스트 및 배포 프로세스를 포함하여 빠른 반복을 달성하려면 PHPCI/CD를 사용하십시오. CI/CD 파이프라인 설정: CI/CD 도구를 선택하고, 코드 저장소를 구성하고, 빌드 파이프라인을 정의합니다. 자동화된 테스트: 단위 및 통합 테스트를 작성하고 테스트 프레임워크를 사용하여 테스트를 단순화합니다. 실제 사례: TravisCI 사용: TravisCI를 설치하고, 파이프라인을 정의하고, 파이프라인을 활성화하고, 결과를 봅니다. 지속적인 전달 구현: 배포 도구를 선택하고, 배포 파이프라인을 정의하고, 배포를 자동화합니다. 이점: 개발 효율성을 높이고 오류를 줄이며 납품 시간을 단축합니다.

Docker 컨테이너를 사용하여 Java EE 애플리케이션 배포: Dockerfile을 생성하여 이미지를 정의하고, 이미지를 빌드하고, 컨테이너를 실행하고, 포트를 매핑한 다음, 브라우저에서 애플리케이션에 액세스합니다. 샘플 JavaEE 애플리케이션: REST API는 Docker를 통해 배포한 후 localhost에서 액세스할 수 있는 데이터베이스와 상호 작용합니다.

마이크로서비스 아키텍처는 PHP 프레임워크(예: Symfony 및 Laravel)를 사용하여 마이크로서비스를 구현하고 RESTful 원칙 및 표준 데이터 형식에 따라 API를 설계합니다. 마이크로서비스는 메시지 대기열, HTTP 요청 또는 gRPC를 통해 통신하고 모니터링 및 문제 해결을 위해 Prometheus 및 ELKStack과 같은 도구를 사용합니다.

1. 먼저 인터페이스를 연 후 왼쪽의 확장 아이콘 버튼을 클릭합니다. 2. 열린 확장 페이지에서 검색창 위치를 찾습니다. 3. 그런 다음 마우스로 Docker라는 단어를 입력하여 확장 플러그인을 찾습니다. 4 마지막으로 대상 플러그인을 선택하고 오른쪽을 클릭합니다. 하단에 있는 설치 버튼을 클릭하면 됩니다.

PHP 마이크로서비스 컨테이너화된 모니터링 및 로그 관리 모니터링: Prometheus 및 Grafana를 사용하여 리소스 사용량, 요청 수 및 대기 시간을 모니터링합니다. 로그 관리: ELKStack(ElasticSearch, Logstash, Kibana)을 사용하여 로그를 수집, 구문 분석 및 시각화합니다. Filebeat 에이전트를 배포하여 ElasticSearch에 로그를 보냅니다.
