Python標準函式庫為我們提供了threading和multiprocessing模組編寫對應的多執行緒/多行程程式碼,但是當專案達到一定的規模,頻繁建立/銷毀行程或執行緒是非常消耗資源的,這個時候我們就要編寫自己的執行緒池/進程池,以空間換時間。但從Python3.2開始,標準函式庫為我們提供了concurrent.futures模組,它提供了ThreadPoolExecutor和ProcessPoolExecutor兩個類,實現了對threading和multiprocessing的進一步抽象,對編寫線程池/進程池提供了直接的支援。
concurrent.futures模組的基礎是Exectuor,Executor是一個抽象類,它不能直接使用。但是它提供的兩個子類別ThreadPoolExecutor和ProcessPoolExecutor卻非常有用,顧名思義兩者分別被用來建立執行緒池和進程池的程式碼。我們可以將對應的tasks直接放入線程池/進程池,不需要維護Queue來操心死鎖的問題,線程池/進程池會自動幫我們調度。
Future這個概念相信有java和nodejs下程式設計經驗的朋友肯定不陌生了,你可以把它理解為一個在未來完成的操作,這是非同步程式設計的基礎,傳統程式模式下例如我們操作queue.get的時候,在等待返回結果之前會產生阻塞,cpu不能讓出來做其他事情,而Future的引入幫助我們在等待的這段時間可以完成其他的操作。關於在Python中進行非同步IO可以閱讀完本文之後參考我的Python並發程式設計協程/非同步IO。
p.s: 如果你還是在堅守Python2.x,請先安裝futures模組。
pip install futures
我們先透過下面這段程式碼來了解線程池的概念
# example1.py
from concurrent.futures import ThreadPoolExecutor
import time
def return_future_result(message):
time.sleep(2)
return message
pool = ThreadPoolExecutor(max_workers=2) 可建立一個最大的可容納一個尺寸執行緒池
future1 = pool.submit(return_future_result, ("hello")) # 將一個task
future2 = pool.submit(return_future_result, ("world")) # 往執行緒池裡面加入一個task
print(future1.done()) # 判斷task1是否結束
time.sleep(3)
print(future2.done()) # 判斷task2是否結束
print(future1. result()) # 查看task1回傳的結果
print(future2.result()) # 查看task2回傳的結果
我們根據運行結果來分析一下。我們使用submit方法來往線程池中加入一個task,submit傳回一個Future對象,對於Future對象可以簡單地理解為一個在未來完成的操作。在第一個print語句中很明顯因為time.sleep(2)的原因我們的future1沒有完成,因為我們使用time.sleep(3)暫停了主線程,所以到第二個print語句的時候我們線程池裡的任務都已經全部結束。
ziwenxie :: ~ » python example1.py
False
True
hello
world
# 在上述程式執行的過程中,透過ps指令我們可以看到三個執行緒同時在後台運行
ziwenxie :: ~ » ps -eLf | grep python
ziwenxie 8361 7557 8361 3 3 19:45 pts/0 10: 8361 7557 8362 0 3 19:45 pts/0 00:00:00 python example1.py
ziwenxie 8361 7557 1836 0:00 python example1.py
上面的程式碼我們也可以改寫成進程池形式,api和線程池如出一轍,我就不囉嗦了。
# example2.py
from concurrent.futures import ProcessPoolExecutor
import time
def return_future_result(message):
time.sleep(2)
sage):
time.sleep(2)
age#returntime. pool = ProcessPoolExecutor(max_workers=2)
future1 = pool.submit(return_future_result, ("hello"))
future2 = pool.submit(return_future_result, ("world"))
print(future1.done ())
time.sleep(3)
print(future2.done())
print(future1.result())
print(future2.result())
下面是運行結果
ziwenxie :: ~ » python example2.py
False
True
hello
world
ziwenxie :: ~ » ps -eLf | grep python
# ziwenxie 8560 7557 8560 3 3 19:53 pts/0 00:00:00 python example2.py
ziwenxie 6075 19:53 pts/0 00:00:00 python example2.py
ziwenxie 8560 7557 8564 0 3 19:53 pts/0 00:00:00 python example2.py
ziwenxie 8561 85.py
ziwenxie 8561 8560 1:561 0:00 python example2.py
ziwenxie 8562 8560 8562 0 1 19:53 pts/0 00:00:00 python example2.py
除了submit,Exectuor也為我們提供了map方法,和內建的map用法類似,下面我們透過兩個例子來比較兩者的差異。
example3.py
#import並發.futures
#import urllib.request
URLS = ['http://httpbin.org', 'http : //example.com/', 'https://api.github.com/']
def load_url(url, timeout):
with urllib.request.urlopen(url, timeout=timeout) as conn :
return conn.read()
# 我們可以使用with語句來確保執行緒被及時清理
以concurrent.futures.ThreadPoolExecutor(max_workers=3)作為執行器:
# 啟動載入操作並用其網址 標記每個future
future_to_url = {executor.submit(load_url, url, 60): url for url in URLS}
for future in concurrent.futures.as_complepleted(future_to_ for future in concurrent.futures.as_complepleted(future_to_url. = future_to_url[future]
try:
data = future.result()
exc) )
else:
print('%r page is %d bytes' % (url, len(data)))
從執行結果中可以看出,
as_completed順序回傳的
。 github .com/'頁面為2039位元組'http://httpbin.org'頁面為12150位元組
##使用map
## example4.py
import並發.futures
import urllib.request
URLS = ['http://httpbin.org', 'http://example.com/', 'https://api.github.com/ ']
## 我們可以使用with 語句來確保執行緒及時清理
以並發.futures.ThreadPoolExecutor(max_workers=3)作為執行器:
for url, data in zip(URLS, executor.map(load_url, URLS)):
r page is %d bytes' % (url, len(data)))
從運行結果可以看出,
map是依照URLS列表元素的順序傳回的
,並且寫出的程式碼比較簡潔解讀,我們可以根據具體的需求任選一種。 : //example.com/' 頁面為1270 位元組
'https://api.github.com/' 頁面為2039 位元組
第三種選擇等待
wait方法接會傳回一個tuple(元組),tuple中包含兩個set(集合),一個是完成(已完成的)另外一個是未完成(未完成的)。優勢就是獲得更大的自由度,它接收三個參數FIRST_COMPLETED、FIRST_EXCEPTION和ALL_COMPLETE,預設設定為ALL_COMPLETED。 from同時.futures import ThreadPoolExecutor, wait, as_completedfrom time import sleep
from random import randint
def return_after_random_secs(num):
sl(re)( Return of {}" .format(num)
pool = ThreadPoolExecutor(5)
futures = []
for x in range(5):
如果採用預設的ALL_COMPLETED,程式會阻塞直到執行緒池裡面的所有任務都完成
ziwenxie :: ~ » python example5.py
DoneAndNotDoneFutures(done={
#思考題
寫一個小程式對比multiprocessing .
##Pool)和
寫一個小程式對比multiprocessing .
##Pool)和
寫一個小程式對比multiprocessing .
##Pool)和
寫一個小程式對比multiprocessing .
##Pool)和
寫一個小程式對比multiprocessing .
##Pool)和
寫一個小程式對比multiprocessing .
##Pool)和
以上是Python 並發程式設計線程池/進程池的詳細內容。更多資訊請關注PHP中文網其他相關文章!