백엔드 개발 Golang 로그 수집 및 분석을 위해 Beego에서 Flume 및 Kafka 사용

로그 수집 및 분석을 위해 Beego에서 Flume 및 Kafka 사용

Jun 23, 2023 am 08:40 AM
kafka flume beego

Beego는 빠른 개발과 손쉬운 확장을 지원하는 효율적인 Go 언어 웹 프레임워크입니다. 실제 응용에서 우리는 유용한 정보와 지식을 얻기 위해 대량의 웹 로그 데이터를 수집하고 분석하는 방법에 종종 직면합니다. 이번 글에서는 Flume과 Kafka를 활용하여 Beego 웹 로그 데이터를 수집하고 분석하는 방법을 소개하겠습니다.

Flume은 다양한 데이터 소스와 다양한 스트리밍 데이터 파이프라인에서 대량의 로그 데이터 수집, 집계 및 전송을 지원할 수 있는 안정적이고 확장 가능한 분산 로그 수집, 집계 및 전송 시스템입니다. Kafka는 대량의 실시간 데이터 스트림을 처리할 수 있고 단순한 수평 확장성과 탄력적 확장성을 갖춘 처리량이 높고 내구성이 뛰어난 분산형 메시지 미들웨어 시스템입니다. 이들은 모두 Apache Foundation에서 지원하고 유지 관리하는 오픈 소스 프로젝트입니다.

1. Flume 설치 및 구성

먼저 Flume을 설치하고 구성해야 합니다. 이 기사에서는 Flume 버전 1.9.0을 사용하여 로컬 환경에서 테스트해 보겠습니다. Flume은 공식 웹사이트(http://flume.apache.org/download.html)에서 다운로드할 수 있습니다.

Flume을 설치한 후 Flume Agent 구성 파일을 구성해야 합니다. 이 글에서는 Flume의 간단한 구성 방법을 사용하겠습니다. Flume 설치 디렉터리에 flume.conf라는 구성 파일을 만들고 여기에 Flume 에이전트를 정의해야 합니다.

flume.conf 파일에서 아래와 같이 소스, 채널 및 싱크가 포함된 Flume 에이전트를 정의해야 합니다.

agent.sources = avro-source
agent.channels = memory-channel
agent.sinks = kafka-sink
 
# Define the source
agent.sources.avro-source.type = avro
agent.sources.avro-source.bind = localhost
agent.sources.avro-source.port = 10000
 
# Define the channel
agent.channels.memory-channel.type = memory
agent.channels.memory-channel.capacity = 10000
 
# Define the sink
agent.sinks.kafka-sink.type = org.apache.flume.sink.kafka.KafkaSink
agent.sinks.kafka-sink.kafka.bootstrap.servers = localhost:9092
agent.sinks.kafka-sink.kafka.topic = beego-log
agent.sinks.kafka-sink.batchSize = 20
agent.sinks.kafka-sink.requiredAcks = 1
 
# Bind the source and sink to the channel
agent.sources.avro-source.channels = memory-channel
agent.sinks.kafka-sink.channel = memory-channel
로그인 후 복사

위 구성 파일에서 avro-source라는 소스를 정의합니다. 유형은 avro입니다. , 이는 시스템의 로컬 호스트에서 포트 10000을 수신하고 Beego 웹 로그 데이터를 받아들입니다. 또한 메모리에 최대 10,000개의 이벤트를 저장할 수 있는 메모리 유형의 memory-channel이라는 채널을 정의하고, Beego 웹 로그 데이터가 주제로 전송되는 KafkaSink 유형의 kafka-sink라는 싱크를 제공합니다. Kafka에서는 beego-log라는 이름을 사용합니다. 이 구성에서는 BatchSize(매번 Kafka에 기록되는 메시지 수) 및 필수Acks(승인해야 하는 Kafka에 기록되는 메시지 수)와 같은 KafkaSink의 일부 속성도 설정합니다.

2. Kafka 설치 및 구성

다음으로 Kafka를 설치하고 구성해야 합니다. 이 기사에서는 Kafka 버전 2.2.0을 사용하여 로컬 환경에서 테스트합니다. Kafka는 공식 웹사이트(http://kafka.apache.org/downloads.html)에서 다운로드할 수 있습니다.

Kafka를 설치한 후 beego-log라는 주제를 생성해야 합니다. Kafka의 명령줄 도구를 사용하여 아래와 같이 주제를 생성할 수 있습니다.

bin/kafka-topics.sh --zookeeper localhost:2181 --create --replication-factor 1 --partitions 1 --topic beego-log
로그인 후 복사

위 명령에서는 Kafka의 명령줄 도구 kafka를 사용합니다. -topics.sh: beego-log라는 주제를 생성하고, 복제 인자를 1로, 파티션을 1로 지정하고, ZooKeeper 주소 localhost:2181을 사용합니다.

3. Beego 웹 프레임워크 적용

Beego 웹 프레임워크를 사용하여 간단한 웹 애플리케이션을 만들고 여기에 웹 로그 데이터를 기록합니다. 이 기사에서는 아래와 같이 컨트롤러와 라우터가 하나만 있는 애플리케이션을 생성합니다.

package main
 
import (
    "github.com/astaxie/beego"
)
 
type MainController struct {
    beego.Controller
}
 
func (c *MainController) Get() {
    // do something
    c.Ctx.WriteString("Hello, World!")
}
 
func main() {
    beego.Router("/", &MainController{})
    beego.Run()
}
로그인 후 복사

위 애플리케이션에서는 MainController라는 컨트롤러를 생성했는데 여기에는 Get 메서드가 하나만 있습니다. Get 메서드에서는 몇 가지 논리를 구현한 다음 클라이언트에 메시지를 반환합니다. 우리는 Beego의 라우팅 기능을 사용하여 루트 경로 "/"를 MainController의 Get 메소드에 매핑했습니다.

Beego의 구성 파일에서 로깅(로그) 기능을 활성화하고 로그 수준을 디버그로 설정하여 더 자세한 내용을 기록하고 추적할 수 있습니다. Beego의 구성 파일 app.conf에 다음 콘텐츠를 추가해야 합니다.

appname = beego-log
httpport = 8080
runmode = dev
 
[log]
level = debug
 
[[Router]]
    Pattern = /
    HTTPMethod = get
    Controller = main.MainController:Get
로그인 후 복사

위 구성 파일에서는 애플리케이션 이름, HTTP 포트, 작동 모드 및 로그 수준을 정의합니다. 또한 Router라는 경로를 지정하고 MainController라는 컨트롤러를 정의하고 루트 경로 "/"를 Get 메서드에 매핑했습니다.

4. 로그 수집 및 분석에 Flume 및 Kafka 사용

이제 간단한 Beego 애플리케이션과 Flume 에이전트가 있으므로 이를 통합하고 로그 수집 및 분석에 Kafka를 사용할 수 있습니다.

Beego 애플리케이션을 시작하고 여기에 HTTP 요청을 보내 일부 로그 데이터를 생성할 수 있습니다. 다음과 같이 컬 명령을 사용하여 Beego에 HTTP 요청을 보낼 수 있습니다:

$ curl http://localhost:8080/
Hello, World!
로그인 후 복사

Flume 에이전트를 시작하고 다음 명령을 사용하여 시작할 수 있습니다:

$ ./bin/flume-ng agent --conf ./conf --conf-file ./conf/flume.conf --name agent --foreground
로그인 후 복사

위 명령에서는 Flume의 명령줄 도구 flume -ng를 사용합니다. Agent라는 이름의 Flume Agent를 시작하고 구성 파일을 ./conf/flume.conf로 지정합니다.

이제 Kafka에서 Beego 웹 로그 데이터를 볼 수 있습니다. Kafka의 명령줄 도구 kafka-console-consumer.sh를 사용하여 다음과 같이 beego-log 주제의 데이터를 사용할 수 있습니다.

$ bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic beego-log --from-beginning
로그인 후 복사

위 명령에서는 Kafka의 명령줄 도구 kafka-console-consumer sh를 사용하여 a를 시작합니다. beego-log라는 주제의 데이터를 소비자 및 소비합니다. 가장 오래된 메시지부터 사용을 시작하려면 --from-beginning 옵션을 사용합니다.

Beego 애플리케이션을 요청하면 Flume은 로그 이벤트를 수집하여 인메모리 채널에 저장한 다음 beego-log라는 Kafka 주제로 전송합니다. Kafka의 명령줄 도구나 API를 사용하면 이러한 로그 데이터를 사용하고 처리하여 더 귀중한 정보와 통찰력을 얻을 수 있습니다.

5. 요약

이번 글에서는 Flume과 Kafka를 사용하여 Beego 웹 로그 데이터를 수집하고 분석하는 방법을 소개했습니다. 먼저 Flume과 Kafka를 설치 및 구성한 다음 간단한 Beego 애플리케이션을 만들고 로깅 기능을 구성했습니다. 마지막으로 로그 수집 및 분석을 위해 Kafka를 사용하여 간단한 Flume Agent를 만들고 이를 Beego 애플리케이션과 통합했습니다.

실제 응용 분야에서는 필요와 시나리오에 따라 Flume 및 Kafka의 매개 변수와 속성을 유연하게 구성하고 사용자 정의하여 다양한 데이터 소스 및 처리 작업에 더 잘 적응하고 더 귀중한 정보와 지식을 얻을 수 있습니다.

위 내용은 로그 수집 및 분석을 위해 Beego에서 Flume 및 Kafka 사용의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

PHP와 Kafka를 사용하여 실시간 주식 분석을 구현하는 방법 PHP와 Kafka를 사용하여 실시간 주식 분석을 구현하는 방법 Jun 28, 2023 am 10:04 AM

인터넷과 기술의 발달로 디지털 투자에 대한 관심이 높아지고 있습니다. 많은 투자자들은 더 높은 투자 수익을 얻기 위해 계속해서 투자 전략을 탐색하고 연구합니다. 주식거래에 있어서 실시간 주식분석은 의사결정에 매우 중요한데, Kafka 실시간 메시지 큐와 PHP 기술을 활용하는 것은 효율적이고 실용적인 수단이다. 1. Kafka 소개 Kafka는 LinkedIn에서 개발한 처리량이 높은 분산 게시 및 구독 메시징 시스템입니다. 카프카의 주요 기능은 다음과 같습니다.

Kafka 탐색을 위한 다섯 가지 시각화 도구 선택 Kafka 탐색을 위한 다섯 가지 시각화 도구 선택 Feb 01, 2024 am 08:03 AM

Kafka 시각화 도구를 위한 다섯 가지 옵션 ApacheKafka는 대량의 실시간 데이터를 처리할 수 있는 분산 스트림 처리 플랫폼입니다. 실시간 데이터 파이프라인, 메시지 대기열 및 이벤트 기반 애플리케이션을 구축하는 데 널리 사용됩니다. Kafka의 시각화 도구는 사용자가 Kafka 클러스터를 모니터링 및 관리하고 Kafka 데이터 흐름을 더 잘 이해하는 데 도움이 될 수 있습니다. 다음은 널리 사용되는 5가지 Kafka 시각화 도구에 대한 소개입니다.

React와 Apache Kafka를 사용하여 실시간 데이터 처리 애플리케이션을 구축하는 방법 React와 Apache Kafka를 사용하여 실시간 데이터 처리 애플리케이션을 구축하는 방법 Sep 27, 2023 pm 02:25 PM

React 및 Apache Kafka를 사용하여 실시간 데이터 처리 애플리케이션을 구축하는 방법 소개: 빅 데이터 및 실시간 데이터 처리가 증가함에 따라 실시간 데이터 처리 애플리케이션 구축은 많은 개발자의 추구 사항이 되었습니다. 널리 사용되는 프런트엔드 프레임워크인 React와 고성능 분산 메시징 시스템인 Apache Kafka의 조합은 실시간 데이터 처리 애플리케이션을 구축하는 데 도움이 될 수 있습니다. 이 기사에서는 React와 Apache Kafka를 사용하여 실시간 데이터 처리 애플리케이션을 구축하는 방법을 소개합니다.

Kafka 시각화 도구 비교 분석: 가장 적합한 도구를 선택하는 방법은 무엇입니까? Kafka 시각화 도구 비교 분석: 가장 적합한 도구를 선택하는 방법은 무엇입니까? Jan 05, 2024 pm 12:15 PM

올바른 Kafka 시각화 도구를 선택하는 방법은 무엇입니까? 다섯 가지 도구 비교 분석 소개: Kafka는 빅데이터 분야에서 널리 사용되는 고성능, 높은 처리량의 분산 메시지 대기열 시스템입니다. Kafka의 인기로 인해 점점 더 많은 기업과 개발자가 Kafka 클러스터를 쉽게 모니터링하고 관리하기 위한 시각적 도구를 필요로 하고 있습니다. 이 기사에서는 일반적으로 사용되는 5가지 Kafka 시각화 도구를 소개하고 각 기능을 비교하여 독자가 자신의 필요에 맞는 도구를 선택할 수 있도록 돕습니다. 1. 카프카매니저

기술 세계를 탐험할 수 있도록 Go 언어 오픈 소스 프로젝트 5개를 선택했습니다. 기술 세계를 탐험할 수 있도록 Go 언어 오픈 소스 프로젝트 5개를 선택했습니다. Jan 30, 2024 am 09:08 AM

오늘날 급속한 기술 발전의 시대에 프로그래밍 언어는 비가 내린 뒤 버섯처럼 솟아오르고 있습니다. 많은 주목을 받고 있는 언어 중 하나가 바로 Go 언어인데, 단순성, 효율성, 동시성 안전성 등 다양한 기능으로 많은 개발자들에게 사랑을 받고 있습니다. Go 언어는 뛰어난 오픈 소스 프로젝트가 많이 포함된 강력한 생태계로 유명합니다. 이 기사에서는 선택된 Go 언어 오픈 소스 프로젝트 5개를 소개하고 독자가 Go 언어 오픈 소스 프로젝트의 세계를 탐색하도록 안내합니다. KubernetesKubernetes는 자동화를 위한 오픈 소스 컨테이너 오케스트레이션 엔진입니다.

Rocky Linux에 Apache Kafka를 설치하는 방법은 무엇입니까? Rocky Linux에 Apache Kafka를 설치하는 방법은 무엇입니까? Mar 01, 2024 pm 10:37 PM

RockyLinux에 ApacheKafka를 설치하려면 다음 단계를 수행할 수 있습니다. 시스템 업데이트: 먼저 RockyLinux 시스템이 최신인지 확인하고 다음 명령을 실행하여 시스템 패키지를 업데이트합니다. sudoyumupdate Java 설치: ApacheKafka는 Java에 의존하므로 먼저 JDK(Java Development Kit)를 설치해야 합니다. OpenJDK는 다음 명령을 통해 설치할 수 있습니다. sudoyuminstalljava-1.8.0-openjdk-devel 다운로드 및 압축 해제: ApacheKafka 공식 웹사이트()를 방문하여 최신 바이너리 패키지를 다운로드합니다. 안정적인 버전을 선택하세요

Go 언어 개발 필수 사항: 인기 있는 프레임워크 권장 사항 5가지 Go 언어 개발 필수 사항: 인기 있는 프레임워크 권장 사항 5가지 Mar 24, 2024 pm 01:15 PM

"Go 언어 개발 필수 사항: 5가지 인기 프레임워크 권장 사항" 빠르고 효율적인 프로그래밍 언어인 Go 언어는 점점 더 많은 개발자들이 선호하고 있습니다. 개발 효율성을 높이고 코드 구조를 최적화하기 위해 많은 개발자는 프레임워크를 사용하여 애플리케이션을 빠르게 구축하는 방법을 선택합니다. Go 언어의 세계에는 선택할 수 있는 훌륭한 프레임워크가 많이 있습니다. 이 기사에서는 인기 있는 Go 언어 프레임워크 5개를 소개하고 독자가 이러한 프레임워크를 더 잘 이해하고 사용할 수 있도록 구체적인 코드 예제를 제공합니다. 1.GinGin은 빠른 속도를 갖춘 경량 웹 프레임워크입니다.

Beego에서 Docker 및 Kubernetes를 사용한 프로덕션 배포 및 관리 Beego에서 Docker 및 Kubernetes를 사용한 프로덕션 배포 및 관리 Jun 23, 2023 am 08:58 AM

인터넷의 급속한 발전으로 인해 점점 더 많은 기업이 애플리케이션을 클라우드 플랫폼으로 마이그레이션하기 시작했습니다. Docker와 Kubernetes는 클라우드 플랫폼에서 애플리케이션 배포 및 관리를 위한 매우 인기 있고 강력한 두 가지 도구가 되었습니다. Beego는 Golang을 사용하여 개발된 웹 프레임워크로 HTTP 라우팅, MVC 계층화, 로깅, 구성 관리, 세션 관리 등 다양한 기능을 제공합니다. 이 기사에서는 Docker와 Kub를 사용하는 방법을 다룹니다.

See all articles