Python で複数のタスクを同時に実行する場合、concurrent.futures モジュールは強力で簡単なツールです。この記事では、ThreadPoolExecutor を使用してタスクを並列実行する方法と実際の例を説明します。
Python では、スレッドは、ネットワーク呼び出しやファイルの読み取り/書き込み操作など、I/O 操作が大部分を占めるタスクに最適です。 ThreadPoolExecutor を使用すると、次のことが可能になります。
コード
from concurrent.futures import ThreadPoolExecutor import time # Function simulating a task def task(n): print(f"Task {n} started") time.sleep(2) # Simulates a long-running task print(f"Task {n} finished") return f"Result of task {n}" # Using ThreadPoolExecutor def execute_tasks(): tasks = [1, 2, 3, 4, 5] # List of tasks results = [] # Create a thread pool with 3 simultaneous threads with ThreadPoolExecutor(max_workers=3) as executor: # Execute tasks in parallel results = executor.map(task, tasks) return list(results) if __name__ == "__main__": results = execute_tasks() print("All results:", results)
Task 1 started Task 2 started Task 3 started Task 1 finished Task 4 started Task 2 finished Task 5 started Task 3 finished Task 4 finished Task 5 finished All results: ['Result of task 1', 'Result of task 2', 'Result of task 3', 'Result of task 4', 'Result of task 5']
スレッド数を制限する:
例外を処理します:
CPU バウンドのタスクには ProcessPoolExecutor を使用する:
import requests from concurrent.futures import ThreadPoolExecutor # Function to fetch a URL def fetch_url(url): try: response = requests.get(url) return f"URL: {url}, Status: {response.status_code}" except Exception as e: return f"URL: {url}, Error: {e}" # List of URLs to fetch urls = [ "https://example.com", "https://httpbin.org/get", "https://jsonplaceholder.typicode.com/posts", "https://invalid-url.com" ] def fetch_all_urls(urls): with ThreadPoolExecutor(max_workers=4) as executor: results = executor.map(fetch_url, urls) return list(results) if __name__ == "__main__": results = fetch_all_urls(urls) for result in results: print(result)
以上が# `ThreadPoolExecutor` で Python タスクを強化するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。