지금까지 생각할 수 있는 방법: Awk는 로그 + 조건부 합산을 분석하고 데이터베이스를 업데이트합니다. 그러나 로그 크기가 크면 효율성에 영향을 미칩니다.
더 간단한 방법이 있나요?
小伙看你根骨奇佳,潜力无限,来学PHP伐。
nginx 공식 웹사이트의 타사 모듈 목록에서 사용할 수 있는 http_accounting 모듈을 사용해 보세요~
우리 계획에 대해 얘기해보자면 유량은 1.9kw
1. 프론트 데스크에서는 <img src="/tj.html"/>
2. ningx는 tj.html의 접속 로그를 별도로 기록합니다ningx 单独记录 tj.html的访问日志
ningx
tj.html
3. syslog 定时 1分钟分割一次
syslog
4. cronjob 定时1分钟 处理分析分割好的日志
cronjob
1
现在我们采用的是1分钟更新一次mysql数据库,正在打算将当天的数据存储方式放到redis上,而将历史记录放到mongodb
mysql
mongodb
로그를 정기적으로 자르면 매번 처리되는 파일은 그리 크지 않습니다.
그런 다음 통계를 수행하는 작은 프로그램을 작성하는데, 이것이 더 효율적입니다.
보다 유연한 쿼리 요구 사항이 있는 경우 로그 정보를 데이터베이스에 기록하고, 시간과 필요한 필드를 기반으로 인덱스를 설정하고, SQL로 직접 쿼리할 수도 있습니다.
nginx 공식 웹사이트의 타사 모듈 목록에서 사용할 수 있는 http_accounting 모듈을 사용해 보세요~
우리 계획에 대해 얘기해보자면 유량은 1.9kw
1. 프론트 데스크에서는 <img src="/tj.html"/>
을 통해 전송 로그를 기록합니다.2.
ningx
는tj.html
의 접속 로그를 별도로 기록합니다ningx
单独记录tj.html
的访问日志3.
syslog
定时 1分钟分割一次4.
cronjob
定时1
分钟 处理分析分割好的日志现在我们采用的是1分钟更新一次
3.mysql
数据库,正在打算将当天的数据存储方式放到redis上,而将历史记录放到mongodb
syslog
는 1분에 한 번씩 나누어질 예정입니다🎜 🎜4.cronjob
은 분할 로그를 처리하고 분석하는 데1
분을 예약합니다🎜 🎜이제 우리는mysql
데이터베이스를 사용하여 1분마다 업데이트됩니다. 오늘의 데이터는 redis에 저장하고 기록 기록은mongodb
🎜에 저장할 계획입니다.로그를 정기적으로 자르면 매번 처리되는 파일은 그리 크지 않습니다.
그런 다음 통계를 수행하는 작은 프로그램을 작성하는데, 이것이 더 효율적입니다.
보다 유연한 쿼리 요구 사항이 있는 경우 로그 정보를 데이터베이스에 기록하고, 시간과 필요한 필드를 기반으로 인덱스를 설정하고, SQL로 직접 쿼리할 수도 있습니다.