在此Python腳本中,多個'cat | zgrep' 指令在遠端伺服器上依序執行,並單獨收集它們的輸出以進行處理。然而,為了提高效率,我們的目標是並行執行這些命令。
與使用多處理或執行緒相反,您可以使用下列方法並行執行子程序:
<code class="python">#!/usr/bin/env python from subprocess import Popen # create a list of subprocesses processes = [Popen("echo {i:d}; sleep 2; echo {i:d}".format(i=i), shell=True) for i in range(5)] # collect statuses of subprocesses exitcodes = [p.wait() for p in processes]</code>
此程式碼同時啟動五個shell 命令並收集它們的退出代碼。請注意,在此上下文中不需要 & 字符,因為 Popen 預設不等待命令完成。您必須明確呼叫 .wait() 來檢索其狀態。
雖然順序收集子程序的輸出很方便,但如果需要,您也可以使用執行緒進行平行收集。考慮以下範例:
<code class="python">#!/usr/bin/env python from multiprocessing.dummy import Pool # thread pool from subprocess import Popen, PIPE, STDOUT # create a list of subprocesses with output handling processes = [Popen("echo {i:d}; sleep 2; echo {i:d}".format(i=i), shell=True, stdin=PIPE, stdout=PIPE, stderr=STDOUT, close_fds=True) for i in range(5)] # collect outputs in parallel def get_lines(process): return process.communicate()[0].splitlines() outputs = Pool(len(processes)).map(get_lines, processes)</code>
此程式碼並行運行子程序並使用執行緒同時收集其輸出。
適用於 Python 版本 3.8 和如上所述,asyncio 提供了一種並發執行子進程的優雅方式。下面是一個範例:
<code class="python">#!/usr/bin/env python3 import asyncio import sys from subprocess import PIPE, STDOUT async def get_lines(shell_command): p = await asyncio.create_subprocess_shell( shell_command, stdin=PIPE, stdout=PIPE, stderr=STDOUT ) return (await p.communicate())[0].splitlines() async def main(): # create a list of coroutines for subprocess execution coros = [get_lines(f'"{sys.executable}" -c "print({i:d}); import time; time.sleep({i:d})"') for i in range(5)] # get subprocess outputs in parallel print(await asyncio.gather(*coros)) if __name__ == "__main__": asyncio.run(main())</code>
此程式碼示範如何在單一執行緒中同時執行子進程。
透過實作這些方法,您可以透過執行多個 ' 來顯著提高腳本的效率。貓 | zgrep' 在遠端伺服器上並行執行命令。
以上是如何執行多個'cat | zgrep' 在 Python 中同時執行指令?的詳細內容。更多資訊請關注PHP中文網其他相關文章!