首頁 > 後端開發 > Python教學 > Python 並發程式設計線程池/進程池

Python 並發程式設計線程池/進程池

巴扎黑
發布: 2017-03-30 14:11:30
原創
1767 人瀏覽過

引言

Python標準函式庫為我們提供了threading和multiprocessing模組編寫對應的多執行緒/多行程程式碼,但是當專案達到一定的規模,頻繁建立/銷毀行程或執行緒是非常消耗資源的,這個時候我們就要編寫自己的執行緒池/進程池,以空間換時間。但從Python3.2開始,標準函式庫為我們提供了concurrent.futures模組,它提供了ThreadPoolExecutor和ProcessPoolExecutor兩個類,實現了對threading和multiprocessing的進一步抽象,對編寫線程池/進程池提供了直接的支援。

Executor和Future

concurrent.futures模組的基礎是Exectuor,Executor是一個抽象類,它不能直接使用。但是它提供的兩個子類別ThreadPoolExecutor和ProcessPoolExecutor卻非常有用,顧名思義兩者分別被用來建立執行緒池和進程池的程式碼。我們可以將對應的tasks直接放入線程池/進程池,不需要維護Queue來操心死鎖的問題,線程池/進程池會自動幫我們調度。

Future這個概念相信有java和nodejs下程式設計經驗的朋友肯定不陌生了,你可以把它理解為一個在未來完成的操作,這是非同步程式設計的基礎,傳統程式模式下例如我們操作queue.get的時候,在等待返回結果之前會產生阻塞,cpu不能讓出來做其他事情,而Future的引入幫助我們在等待的這段時間可以完成其他的操作。關於在Python中進行非同步IO可以閱讀完本文之後參考我的Python並發程式設計協程/非同步IO。

p.s: 如果你還是在堅守Python2.x,請先安裝futures模組。

pip install futures

使用submit來操作線程池/進程池

我們先透過下面這段程式碼來了解線程池的概念

# example1.py
from concurrent.futures import ThreadPoolExecutor
import time
def return_future_result(message):
   time.sleep(2)
   return message
pool = ThreadPoolExecutor(max_workers=2) 可建立一個最大的可容納一個尺寸執行緒池
future1 = pool.submit(return_future_result, ("hello"))  # 將一個task
future2 = pool.submit(return_future_result, ("world"))  # 往執行緒池裡面加入一個task
print(future1.done())  # 判斷task1是否結束
time.sleep(3)
print(future2.done())  # 判斷task2是否結束
print(future1. result())  # 查看task1回傳的結果
print(future2.result())  # 查看task2回傳的結果
我們根據運行結果來分析一下。我們使用submit方法來往線程池中加入一個task,submit傳回一個Future對象,對於Future對象可以簡單地理解為一個在未來完成的操作。在第一個print語句中很明顯因為time.sleep(2)的原因我們的future1沒有完成,因為我們使用time.sleep(3)暫停了主線程,所以到第二個print語句的時候我們線程池裡的任務都已經全部結束。

ziwenxie :: ~ » python example1.py
False
True
hello
world
# 在上述程式執行的過程中,透過ps指令我們可以看到三個執行緒同時在後台運行
ziwenxie :: ~ » ps -eLf | grep python
ziwenxie      8361  7557  8361  3    3 19:45 pts/0 10:    8361 7557  8362  0    3 19:45 pts/0    00:00:00 python example1.py
ziwenxie      8361  7557 1836 0:00 python example1.py
上面的程式碼我們也可以改寫成進程池形式,api和線程池如出一轍,我就不囉嗦了。

# example2.py
from concurrent.futures import ProcessPoolExecutor
import time
def return_future_result(message):
   time.sleep(2)
 sage):
   time.sleep(2)
 age#returntime. pool = ProcessPoolExecutor(max_workers=2)
future1 = pool.submit(return_future_result, ("hello"))
future2 = pool.submit(return_future_result, ("world"))
print(future1.done ())
time.sleep(3)
print(future2.done())
print(future1.result())
print(future2.result())
下面是運行結果

ziwenxie :: ~ » python example2.py
False
True
hello
world
ziwenxie :: ~ » ps -eLf | grep python
# ziwenxie      8560  7557  8560  3    3 19:53 pts/0    00:00:00 python example2.py
ziwenxie 6075 19:53 pts/0    00:00:00 python example2.py
ziwenxie      8560 7557  8564  0    3 19:53 pts/0    00:00:00 python example2.py
ziwenxie      8561  85.py
ziwenxie      8561  8560 1:561 0:00 python example2.py
ziwenxie      8562  8560  8562 0    1 19:53 pts/0    00:00:00 python example2.py

使用map/wait來操作執行緒池/進程池


除了submit,Exectuor也為我們提供了map方法,和內建的map用法類似,下面我們透過兩個例子來比較兩者的差異。

####

使用submit運算回顧

example3.py
#import並發.futures
#import urllib.request
URLS = ['http://httpbin.org', 'http : //example.com/', 'https://api.github.com/']
def load_url(url, timeout):
   with urllib.request.urlopen(url, timeout=timeout) as conn :
       return conn.read()
# 我們可以使用with語句來確保執行緒被及時清理
以concurrent.futures.ThreadPoolExecutor(max_workers=3)作為執行器:
   # 啟動載入操作並用其網址 標記每個future
   future_to_url = {executor.submit(load_url, url, 60): url for url in URLS}
   for future in concurrent.futures.as_complepleted(future_to_ for future in concurrent.futures.as_complepleted(future_to_url. = future_to_url[future]
       try:
           data = future.result()
       exc) )
       else:
           print('%r page is %d bytes' % (url, len(data)))
從執行結果中可以看出,
as_completed順序回傳的
。 github .com/'頁面為2039位元組'http://httpbin.org'頁面為12150位元組
##使用map

## example4.py
import並發.futures
import urllib.request
URLS = ['http://httpbin.org', 'http://example.com/', 'https://api.github.com/ ']

def load_url(url):

   with urllib.request.urlopen(url, timeout=60) as conn:

       return conn.read()

## 我們可以使用with 語句來確保執行緒及時清理
以並發.futures.ThreadPoolExecutor(max_workers=3)作為執行器:
   for url, data in zip(URLS, executor.map(load_url, URLS)):
r page is %d bytes' % (url, len(data)))
從運行結果可以看出,
map是依照URLS列表元素的順序傳回的
,並且寫出的程式碼比較簡潔解讀,我們可以根據具體的需求任選一種。 : //example.com/' 頁面為1270 位元組
'https://api.github.com/' 頁面為2039 位元組


第三種選擇等待
wait方法接會傳回一個tuple(元組),tuple中包含兩個set(集合),一個是完成(已完成的)另外一個是未完成(未完成的)。優勢就是獲得更大的自由度,它接收三個參數FIRST_COMPLETED、FIRST_EXCEPTION和ALL_COMPLETE,預設設定為ALL_COMPLETED。 from同時.futures import ThreadPoolExecutor, wait, as_completedfrom time import sleep
from random import randint
def return_after_random_secs(num):
   sl(re)( Return of {}" .format(num)
pool = ThreadPoolExecutor(5)
futures = []
for x in range(5):

   futures.append(pool.submit(return_after_random_secs, x))

print(wait(futures))

# print(wait(futures, timeout=None, return_when='FIRST_COMPLETED'))

如果採用預設的ALL_COMPLETED,程式會阻塞直到執行緒池裡面的所有任務都完成

ziwenxie :: ~ » python example5.py
DoneAndNotDoneFutures(done={
,#106c9bc88 state=finished returned str>,#106c9bc88 state=finished returned str>,#106bstate atx1 =finished回傳str>,



如果採用FIRST_COMPLETED參數,程式不會等到執行緒池裡面的所有任務都完成。
,
,
,
})


#思考題

寫一個小程式對比multiprocessing .
##Pool)和

寫一個小程式對比multiprocessing .
##Pool)和

寫一個小程式對比multiprocessing .
##Pool)和

寫一個小程式對比multiprocessing .
##Pool)和

寫一個小程式對比multiprocessing .
##Pool)和

寫一個小程式對比multiprocessing .
##Pool)和

寫一個小程式對比multiprocessing .

##Pool)和

寫一個小程式對比 mpool ProcessPollExecutor(ThreadPoolExecutor)在執行效率上的差距,結合上述的Future思考為什麼會造成這樣的結果。

以上是Python 並發程式設計線程池/進程池的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板