目錄
一、前言
為什麼要使用loguru?
二、優雅的使用loguru
1. 安裝loguru
2.功能特性介紹
3. 開箱即用,無需準備
4. 更容易的檔案日誌記錄與轉存/保留/壓縮方式
5. 更優雅的字串格式化輸出
6. 在子執行緒或主執行緒中擷取例外
7.可以設定不同等級的日誌記錄樣式
15. 非常方便的解析器
16. 通知机制 (邮件告警)
17. Flask 框架集成
18. 要点解析
三、总结
2.常见错误2:
首頁 後端開發 Python教學 Python3 Loguru輸出日誌工具怎麼使用

Python3 Loguru輸出日誌工具怎麼使用

May 15, 2023 pm 03:13 PM
python loguru

一、前言

Python logging 模組定義了為應用程式和函式庫實作靈活的事件日誌記錄的函數和類別。

程式開發過程中,許多程式都有記錄日誌的需求,且日誌包含的資訊有正常的程式存取日誌還可能有錯誤、警告等資訊輸出,Python 的logging 模組提供了標準的日誌接口,可以透過它儲存各種格式的日誌,日誌記錄提供了一組便利功能,用於簡單的日誌記錄用法。

使用 Python Logging 模組的主要好處是所有 Python 模組都可以參與日誌記錄Logging 模組提供了大量具有靈活性的功能。

為什麼要使用loguru?

簡單又方便的幫助我們輸出所需的日誌訊息:

使用Python 來寫程式或腳本的話,常常遇到的問題就是需要對日誌進行刪除。一方面可以幫助我們在程序出問題的時候排除問題,二來可以幫助我們記錄需要關注的資訊。
但是,使用自備自帶的 logging 模組的話,則需要我們進行不同的初始化等相關工作。對應不熟悉該模組的同學來說,還是有些費力的,例如需要配置 Handler/Formatter 等。隨著業務的複雜度提升, 對日誌收集有著更高的要求, 例如: 日誌分類, 文件存儲, 異步寫入, 自定義類型等等

loguru 是一個Python 簡易且強大的第三方日誌記錄庫,該庫旨在透過添加一系列有用的功能來解決標準記錄器的注意事項,從而減少Python 日誌記錄的痛苦。

二、優雅的使用loguru

1. 安裝loguru

pip install loguru
登入後複製

2.功能特性介紹

有很多優點,以下列舉了其中比較重要的幾點:

  • 開箱即用,無需準備

  • 無需初始化,導入函數即可使用

  • #更容易的檔案日誌記錄與轉存/保留/壓縮方式

  • 更優雅的字串格式化輸出

  • 可以在線程或主線程中捕獲異常

  • 可以設定不同級別的日誌記錄樣式

  • 支援異步,且線程和多進程安全性

  • 支援惰性計算

  • 適用於腳本和函式庫

  • 完全相容於標準日誌記錄

  • 更好的日期時間處理

3. 開箱即用,無需準備

from loguru import logger  
logger.debug("That's it, beautiful and simple logging!")
登入後複製

無需初始化,導入函數即可使用, 那麼你肯定要問, 如何解決一下問題?

  • #如何添加處理程序(handler)呢?

  • 如何設定日誌格式(logs formatting)呢?

  • 如何過濾訊息(filter messages)呢?

  • 如何如何設定等級(log level)呢?

# add  
logger.add(sys.stderr, \  
    format="{time} {level} {message}",\  
    filter="my_module",\  
    level="INFO")
登入後複製

是不是很easy~

4. 更容易的檔案日誌記錄與轉存/保留/壓縮方式

# 日志文件记录  
logger.add("file_{time}.log")  
# 日志文件转存  
logger.add("file_{time}.log", rotation="500 MB")  
logger.add("file_{time}.log", rotation="12:00")  
logger.add("file_{time}.log", rotation="1 week")  
# 多次时间之后清理  
logger.add("file_X.log", retention="10 days")  
# 使用zip文件格式保存  
logger.add("file_Y.log", compression="zip")
登入後複製

5. 更優雅的字串格式化輸出

logger.info(  
    "If you're using Python {}, prefer {feature} of course!",  
    3.10, feature="f-strings")
登入後複製

6. 在子執行緒或主執行緒中擷取例外

@logger.catch  
def my_function(x, y, z):  
    # An error? It's caught anyway!  
    return 1 / (x + y + z)  
my_function(0, 0, 0)
登入後複製

7.可以設定不同等級的日誌記錄樣式

##Loguru 會自動為不同的日誌級別,添加不同的顏色進行區分, 也支持自定義顏色哦~

logger.add(sys.stdout,  
    colorize=True,  
    format="<green>{time}</green> <level>{message}</level>")  
logger.add(&#39;logs/z_{time}.log&#39;,  
           level=&#39;DEBUG&#39;,  
           format=&#39;{time:YYYY-MM-DD :mm:ss} - {level} - {file} - {line} - {message}&#39;,  
           rotation="10 MB")
登入後複製

8.支援異步且線程和多進程安全

  • 預設情況下,加入到logger 中的日誌資訊都是線程安全的。但這並不是多進程安全的,我們可以透過新增 enqueue 參數來確保日誌完整性。

  • 如果我們想要在非同步任務中使用日誌記錄的話,也是可以使用同樣的參數來保證的。並且透過 complete() 來等待執行完成。

  • # 异步写入  
    logger.add("some_file.log", enqueue=True)
    登入後複製
你沒有看錯, 只需要

enqueue=True即可非同步執行

9. 異常的完整性描述

用於記錄程式碼中發生的異常的bug 跟踪,Loguru 透過允許顯示整個堆疊追蹤(包括變數值)來幫助您識別問題

logger.add("out.log", backtrace=True, diagnose=True)  
def func(a, b):  
    return a / b  
def nested(c):  
    try:  
        func(5, c)  
    except ZeroDivisionError:  
        logger.exception("What?!")  
nested(0)
登入後複製

10. 結構化日誌記錄

  • #對日誌進行序列化以便更容易解析或傳遞資料結構,使用序列化參數,在將每個日誌訊息傳送到配置的接收器之前,將其轉換為JSON 字串。

  • 同時,使用 bind() 方法,可以透過修改額外的 record 屬性來將日誌記錄器訊息置於上下文中。也可以透過組合 bind() 和 filter 對日誌進行更細粒度的控制。

  • 最後 patch() 方法允許將動態值附加到每個新訊息的記錄 dict 上。

  • # 序列化为json格式  
    logger.add(custom_sink_function, serialize=True)  
    # bind方法的用处  
    logger.add("file.log", format="{extra[ip]} {extra[user]} {message}")  
    context_logger = logger.bind(ip="192.168.2.174", user="someone")  
    context_logger.info("Contextualize your logger easily")  
    context_logger.bind(user="someone_else").info("Inline binding of extra attribute")  
    context_logger.info("Use kwargs to add context during formatting: {user}", user="anybody")  
    # 粒度控制  
    logger.add("special.log", filter=lambda record: "special" in record["extra"])  
    logger.debug("This message is not logged to the file")  
    logger.bind(special=True).info("This message, though, is logged to the file!")  
    # patch()方法的用处  
    logger.add(sys.stderr, format="{extra[utc]} {message}")  
    loggerlogger = logger.patch(lambda record: record["extra"].update(utc=datetime.utcnow()))
    登入後複製
11. 惰性計算

有時希望在生產環境中記錄詳細資訊而不會影響效能,可以使用 opt() 方法來實現這一點。

logger.opt(lazy=True).debug("If sink level <= DEBUG: {x}", x=lambda: expensive_function(2**64))  
# By the way, "opt()" serves many usages  
logger.opt(exception=True).info("Error stacktrace added to the log message (tuple accepted too)")  
logger.opt(colors=True).info("Per message <blue>colors</blue>")  
logger.opt(record=True).info("Display values from the record (eg. {record[thread]})")  
logger.opt(raw=True).info("Bypass sink formatting\n")  
logger.opt(depth=1).info("Use parent stack context (useful within wrapped functions)")  
logger.opt(capture=False).info("Keyword arguments not added to {dest} dict", dest="extra")
登入後複製

12. 可自訂的等級

new_level = logger.level("SNAKY", no=38, color="<yellow>", icon="????")  
logger.log("SNAKY", "Here we go!")
登入後複製

13. 適用於腳本和函式庫

# For scripts  
config = {  
    "handlers": [  
        {"sink": sys.stdout, "format": "{time} - {message}"},  
        {"sink": "file.log", "serialize": True},  
    ],  
    "extra": {"user": "someone"}  
}  
logger.configure(**config)  
# For libraries  
logger.disable("my_library")  
logger.info("No matter added sinks, this message is not displayed")  
logger.enable("my_library")  
logger.info("This message however is propagated to the sinks")
登入後複製

14. 完全相容標準日誌記錄

  • #希望使用Loguru 作為內建的日誌處理程序?

  • 需要將 Loguru 訊息到標準日誌?

  • 想要攔截標準的日誌訊息到 Loguru 中匯總?

handler = logging.handlers.SysLogHandler(address=(&#39;localhost&#39;, 514)) 
logger.add(handler)  
class PropagateHandler(logging.Handler):  
    def emit(self, record):  
        logging.getLogger(record.name).handle(record)  
logger.add(PropagateHandler(), format="{message}")  
class InterceptHandler(logging.Handler):  
    def emit(self, record):  
        # Get corresponding Loguru level if it exists  
        try:  
            level = logger.level(record.levelname).name  
        except ValueError:  
            level = record.levelno  
        # Find caller from where originated the logged message  
        frame, depth = logging.currentframe(), 2  
        while frame.f_code.co_filename == logging.__file__:  
            frameframe = frame.f_back  
            depth += 1  
        logger.opt(depthdepth=depth, exception=record.exc_info).log(level, record.getMessage())  
logging.basicConfig(handlers=[InterceptHandler()], level=0)
登入後複製

15. 非常方便的解析器

从生成的日志中提取特定的信息通常很有用,这就是为什么 Loguru 提供了一个 parse() 方法来帮助处理日志和正则表达式。

pattern = r"(?P<time>.*) - (?P<level>[0-9]+) - (?P<message>.*)"  # Regex with named groups  
caster_dict = dict(time=dateutil.parser.parse, level=int)        # Transform matching groups  
for groups in logger.parse("file.log", pattern, cast=caster_dict):  
    print("Parsed:", groups) 
    # {"level": 30, "message": "Log example", "time": datetime(2018, 12, 09, 11, 23, 55)}
登入後複製

16. 通知机制 (邮件告警)

import notifiers  
params = {  
    "username": "you@gmail.com",  
    "password": "abc123",  
    "to": "dest@gmail.com"  
}  
# Send a single notification  
notifier = notifiers.get_notifier("gmail")  
notifier.notify(message="The application is running!", **params)  
# Be alerted on each error message  
from notifiers.logging import NotificationHandler  
handler = NotificationHandler("gmail", defaults=params)  
logger.add(handler, level="ERROR")
登入後複製

17. Flask 框架集成

  • 现在最关键的一个问题是如何兼容别的 logger,比如说 tornado 或者 django 有一些默认的 logger。

  • 经过研究,最好的解决方案是参考官方文档的,完全整合 logging 的工作方式。比如下面将所有的 logging都用 loguru 的 logger 再发送一遍消息。

import logging  
import sys  
from pathlib import Path  
from flask import Flask  
from loguru import logger  
app = Flask(__name__)  
class InterceptHandler(logging.Handler):  
    def emit(self, record):  
        loggerlogger_opt = logger.opt(depth=6, exception=record.exc_info)  
        logger_opt.log(record.levelname, record.getMessage())  
def configure_logging(flask_app: Flask):  
    """配置日志"""  
    path = Path(flask_app.config[&#39;LOG_PATH&#39;])  
    if not path.exists():  
        path.mkdir(parents=True)  
    log_name = Path(path, &#39;sips.log&#39;)  
    logging.basicConfig(handlers=[InterceptHandler(level=&#39;INFO&#39;)], level=&#39;INFO&#39;)  
    # 配置日志到标准输出流  
    logger.configure(handlers=[{"sink": sys.stderr, "level": &#39;INFO&#39;}])  
    # 配置日志到输出到文件  
    logger.add(log_name, rotation="500 MB", encoding=&#39;utf-8&#39;, colorize=False, level=&#39;INFO&#39;)
登入後複製

18. 要点解析

介绍,主要函数的使用方法和细节 - add()的创建和删除

  • add() 非常重要的参数 sink 参数

  • 具体的实现规范可以参见官方文档

  • 可以实现自定义 Handler 的配置,比如 FileHandler、StreamHandler 等等

  • 可以自行定义输出实现

  • 代表文件路径,会自动创建对应路径的日志文件并将日志输出进去

  • 例如 sys.stderr 或者 open(‘file.log’, ‘w’) 都可以

  • 可以传入一个 file 对象

  • 可以直接传入一个 str 字符串或者 pathlib.Path 对象

  • 可以是一个方法

  • 可以是一个 logging 模块的 Handler

  • 可以是一个自定义的类

def add(self, sink, *,  
    level=_defaults.LOGURU_LEVEL, format=_defaults.LOGURU_FORMAT,  
    filter=_defaults.LOGURU_FILTER, colorize=_defaults.LOGURU_COLORIZE,  
    serialize=_defaults.LOGURU_SERIALIZE, backtrace=_defaults.LOGURU_BACKTRACE,  
    diagnose=_defaults.LOGURU_DIAGNOSE, enqueue=_defaults.LOGURU_ENQUEUE,  
    catch=_defaults.LOGURU_CATCH, **kwargs  
):
登入後複製

另外添加 sink 之后我们也可以对其进行删除,相当于重新刷新并写入新的内容。删除的时候根据刚刚 add 方法返回的 id 进行删除即可。可以发现,在调用 remove 方法之后,确实将历史 log 删除了。但实际上这并不是删除,只不过是将 sink 对象移除之后,在这之前的内容不会再输出到日志中,这样我们就可以实现日志的刷新重新写入操作

from loguru import logger  
trace = logger.add(&#39;runtime.log&#39;)  
logger.debug(&#39;this is a debug message&#39;)  
logger.remove(trace)  
logger.debug(&#39;this is another debug message&#39;)
登入後複製

三、总结

我们在开发流程中, 通过日志快速定位问题, 高效率解决问题, 我认为 loguru 能帮你解决不少麻烦, 赶快试试吧~

当然, 使用各种也有不少麻烦, 例如:

1. 常见错误1:

--- Logging error in Loguru Handler #3 ---
Record was: None
Traceback (most recent call last):
  File "/usr/local/lib/python3.9/site-packages/loguru/_handler.py", line 272, in _queued_writer
    message = queue.get()
  File "/usr/local/lib/python3.9/multiprocessing/queues.py", line 366, in get
    res = self._reader.recv_bytes()
  File "/usr/local/lib/python3.9/multiprocessing/connection.py", line 221, in recv_bytes
    buf = self._recv_bytes(maxlength)
  File "/usr/local/lib/python3.9/multiprocessing/connection.py", line 419, in _recv_bytes
    buf = self._recv(4)
  File "/usr/local/lib/python3.9/multiprocessing/connection.py", line 384, in _recv
    chunk = read(handle, remaining)
OSError: [Errno 9] Bad file descriptor
--- End of logging error ---

解决办法:
尝试将logs文件夹忽略git提交, 避免和服务器文件冲突即可;
当然也不止这个原因引起这个问题, 也可能是三方库(ciscoconfparse)冲突所致.解决办法: https://github.com/Delgan/loguru/issues/534

2.常见错误2:

File "/home/ronaldinho/xxx/xxx/venv/lib/python3.9/site-packages/loguru/_logger.py", line 939, in add
    handler = Handler(
  File "/home/ronaldinho/xxx/xxx/venv/lib/python3.9/site-packages/loguru/_handler.py", line 86, in __init__
    self._queue = multiprocessing.SimpleQueue()
  File "/home/ronaldinho/.pyenv/versions/3.9.4/lib/python3.9/multiprocessing/context.py", line 113, in SimpleQueue
    return SimpleQueue(ctx=self.get_context())
  File "/home/ronaldinho/.pyenv/versions/3.9.4/lib/python3.9/multiprocessing/queues.py", line 342, in __init__
    self._rlock = ctx.Lock()
  File "/home/ronaldinho/.pyenv/versions/3.9.4/lib/python3.9/multiprocessing/context.py", line 68, in Lock
    return Lock(ctx=self.get_context())
  File "/home/ronaldinho/.pyenv/versions/3.9.4/lib/python3.9/multiprocessing/synchronize.py", line 162, in __init__
  File "/home/ronaldinho/.pyenv/versions/3.9.4/lib/python3.9/multiprocessing/synchronize.py", line 57, in __init__
OSError: [Errno 24] Too many open files

你可以 remove()添加的处理程序,它应该释放文件句柄。 


以上是Python3 Loguru輸出日誌工具怎麼使用的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
4 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

mysql 是否要付費 mysql 是否要付費 Apr 08, 2025 pm 05:36 PM

MySQL 有免費的社區版和收費的企業版。社區版可免費使用和修改,但支持有限,適合穩定性要求不高、技術能力強的應用。企業版提供全面商業支持,適合需要穩定可靠、高性能數據庫且願意為支持買單的應用。選擇版本時考慮的因素包括應用關鍵性、預算和技術技能。沒有完美的選項,只有最合適的方案,需根據具體情況謹慎選擇。

HadiDB:Python 中的輕量級、可水平擴展的數據庫 HadiDB:Python 中的輕量級、可水平擴展的數據庫 Apr 08, 2025 pm 06:12 PM

HadiDB:輕量級、高水平可擴展的Python數據庫HadiDB(hadidb)是一個用Python編寫的輕量級數據庫,具備高度水平的可擴展性。安裝HadiDB使用pip安裝:pipinstallhadidb用戶管理創建用戶:createuser()方法創建一個新用戶。 authentication()方法驗證用戶身份。 fromhadidb.operationimportuseruser_obj=user("admin","admin")user_obj.

Navicat查看MongoDB數據庫密碼的方法 Navicat查看MongoDB數據庫密碼的方法 Apr 08, 2025 pm 09:39 PM

直接通過 Navicat 查看 MongoDB 密碼是不可能的,因為它以哈希值形式存儲。取回丟失密碼的方法:1. 重置密碼;2. 檢查配置文件(可能包含哈希值);3. 檢查代碼(可能硬編碼密碼)。

mysql workbench 可以連接到 mariadb 嗎 mysql workbench 可以連接到 mariadb 嗎 Apr 08, 2025 pm 02:33 PM

MySQL Workbench 可以連接 MariaDB,前提是配置正確。首先選擇 "MariaDB" 作為連接器類型。在連接配置中,正確設置 HOST、PORT、USER、PASSWORD 和 DATABASE。測試連接時,檢查 MariaDB 服務是否啟動,用戶名和密碼是否正確,端口號是否正確,防火牆是否允許連接,以及數據庫是否存在。高級用法中,使用連接池技術優化性能。常見錯誤包括權限不足、網絡連接問題等,調試錯誤時仔細分析錯誤信息和使用調試工具。優化網絡配置可以提升性能

mysql 需要互聯網嗎 mysql 需要互聯網嗎 Apr 08, 2025 pm 02:18 PM

MySQL 可在無需網絡連接的情況下運行,進行基本的數據存儲和管理。但是,對於與其他系統交互、遠程訪問或使用高級功能(如復制和集群)的情況,則需要網絡連接。此外,安全措施(如防火牆)、性能優化(選擇合適的網絡連接)和數據備份對於連接到互聯網的 MySQL 數據庫至關重要。

mysql 無法連接到本地主機怎麼解決 mysql 無法連接到本地主機怎麼解決 Apr 08, 2025 pm 02:24 PM

無法連接 MySQL 可能是由於以下原因:MySQL 服務未啟動、防火牆攔截連接、端口號錯誤、用戶名或密碼錯誤、my.cnf 中的監聽地址配置不當等。排查步驟包括:1. 檢查 MySQL 服務是否正在運行;2. 調整防火牆設置以允許 MySQL 監聽 3306 端口;3. 確認端口號與實際端口號一致;4. 檢查用戶名和密碼是否正確;5. 確保 my.cnf 中的 bind-address 設置正確。

如何針對高負載應用程序優化 MySQL 性能? 如何針對高負載應用程序優化 MySQL 性能? Apr 08, 2025 pm 06:03 PM

MySQL數據庫性能優化指南在資源密集型應用中,MySQL數據庫扮演著至關重要的角色,負責管理海量事務。然而,隨著應用規模的擴大,數據庫性能瓶頸往往成為製約因素。本文將探討一系列行之有效的MySQL性能優化策略,確保您的應用在高負載下依然保持高效響應。我們將結合實際案例,深入講解索引、查詢優化、數據庫設計以及緩存等關鍵技術。 1.數據庫架構設計優化合理的數據庫架構是MySQL性能優化的基石。以下是一些核心原則:選擇合適的數據類型選擇最小的、符合需求的數據類型,既能節省存儲空間,又能提升數據處理速度

如何將 AWS Glue 爬網程序與 Amazon Athena 結合使用 如何將 AWS Glue 爬網程序與 Amazon Athena 結合使用 Apr 09, 2025 pm 03:09 PM

作為數據專業人員,您需要處理來自各種來源的大量數據。這可能會給數據管理和分析帶來挑戰。幸運的是,兩項 AWS 服務可以提供幫助:AWS Glue 和 Amazon Athena。

See all articles