백엔드 개발 파이썬 튜토리얼 Python 동시성에서 PoolExecutor 소개(예제 포함)

Python 동시성에서 PoolExecutor 소개(예제 포함)

Mar 16, 2019 am 09:50 AM
python

이 기사는 Python 동시성 PoolExecutor(예제 포함)에 대한 소개를 제공합니다. 이는 특정 참조 가치가 있습니다. 도움이 필요한 친구가 도움이 되기를 바랍니다.

멀티스레딩 및 멀티프로세싱을 사용하여 일반 동시성 요구사항을 완료합니다. 시작 중에 시작 및 조인과 같은 단계를 생략할 수 없습니다. 복잡한 요구사항의 경우 1~2개의 대기열이 필요합니다.
요구사항이 점점 더 복잡해지면서 좋은 디자인과 기능 수준 추상화가 없으면 코드가 많아질수록 디버깅이 더 어려워집니다.

동시 실행이 필요하지만 실시간 요구 사항이 높지 않은 작업의 경우 Concurrent.futures 패키지의 PoolExecutor 클래스를 사용하여 구현할 수 있습니다.

이 패키지는 스레드 풀 실행기 ThreadPoolExecutor와 프로세스 풀 실행기 ProcessPoolExecutor라는 두 가지 실행기를 제공합니다. 두 실행기는 동일한 API를 제공합니다.

풀 개념의 주요 목적은 재사용을 위한 것입니다. 즉, 스레드나 프로세스를 수명 주기 동안 여러 번 사용할 수 있도록 하는 것입니다. 스레드 및 프로세스 생성에 따른 오버헤드를 줄이고 프로그램 성능을 향상시킵니다. 재사용은 필수 규칙은 아니지만 프로그래머가 애플리케이션에서 풀을 사용하는 주된 이유입니다.

풀에는 max_workers에 의해 지정된 고정된 개수의 스레드/프로세스만 있습니다.

작업은 executor.submit을 통해 실행자의 작업 대기열에 제출되고 미래 개체가 반환됩니다.

Future는 일반적인 동시성 디자인 패턴입니다.

미래 객체는 아직 준비되지 않은(완료된) 일부 결과를 나타냅니다. 이 결과는 "미래"의 특정 시간에 준비된 후에 얻을 수 있습니다.

과제는 다양한 작업자들 사이에서 수행될 예정입니다.

하지만 일단 작업이 실행되면 실행이 완료될 때까지 작업자가 점유된다는 점에 유의하세요! 작업자가 충분하지 않으면 다른 작업이 계속 대기하게 됩니다! 따라서 PoolExecutor는 실시간 작업에 적합하지 않습니다.

import concurrent.futures
import time
from itertools import count

number_list = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]

def evaluate_item(x):
    for i in count(x):  # count 是无限迭代器,会一直递增。
        print(f"{x} - {i}")
        time.sleep(0.01)


if __name__ == "__main__":
        # 进程池
        start_time_2 = time.time()

        # 使用 with 在离开此代码块时,自动调用 executor.shutdown(wait=true) 释放 executor 资源
        with concurrent.futures.ThreadPoolExecutor(max_workers=5) as executor:
                # 将 10 个任务提交给 executor,并收集 futures
                futures = [executor.submit(evaluate_item, item) for item in number_list]

                # as_completed 方法等待 futures 中的 future 完成
                # 一旦某个 future 完成,as_completed 就立即返回该 future
                # 这个方法,使每次返回的 future,总是最先完成的 future
                # 而不是先等待任务 1,再等待任务 2...
                for future in concurrent.futures.as_completed(futures):
                        print(future.result())
        print ("Thread pool execution in " + str(time.time() - start_time_2), "seconds")
로그인 후 복사

위 코드에서 항목 1 2 3 4 5가 포함된 5개 작업은 항상 모든 작업자를 차지하지만 5개 작업 6 7 8 9 10은 영원히 대기합니다! ! !

API 세부 설명

concurrent.futures에는 API의 세 부분이 포함되어 있습니다.

PoolExecutor: 두 실행자의 API입니다.

Constructor: 주요 매개변수는 스레드 풀 크기(또는 작업자)를 지정하는 데 사용되는 max_workers입니다. number)

submit(fn, *args, **kwargs): 작업 함수 fn을 실행자에게 제출합니다. args 및 kwargs는 fn에 필요한 매개변수입니다.

결과를 얻기 위해 미래를 반환합니다

map(func, *iterables, timeout=None, Chunksize=1): 작업은 동일하지만 매개변수만 다른 경우 제출 대신 이 방법을 사용할 수 있습니다. iterables의 각 요소는 func의 매개변수 집합에 해당합니다.

futures의 반복자를 반환합니다

shutdown(wait=True): 실행기를 종료합니다. 일반적으로 with 관리자를 사용하여 자동으로 종료합니다.

Future: 작업이 실행자에게 제출된 후 future가 반환됩니다.

future.result(timout=None): 가장 일반적으로 사용되는 메서드는 작업 결과를 반환합니다. 작업이 아직 종료되지 않은 경우 이 메서드는 영원히 기다립니다!

timeout은 시간 초과를 지정하며 None인 경우 시간 초과 제한이 없습니다.

Exception(timeout=None): 작업에서 발생한 예외를 제공합니다. result()와 마찬가지로 작업이 끝날 때까지 기다립니다.

cancel(): 이 작업 취소

add_done_callback(fn): future가 완료된 후 fn(future)이 실행됩니다.

running(): 실행 중인지 여부

done(): 미래가 끝났는지 여부, boolean

... 자세한 내용은 공식 문서를 참조하세요

모듈에 포함된 유틸리티 함수

concurrent.futures.as_completed (fs, timeout =None): fs(futures iterable)의 future가 완료될 때까지 기다립니다.

fs의 future가 완료되면 이 함수는 즉시 future를 반환합니다.

이 방법을 사용하면 매번 반환된 미래가 항상 가장 먼저 완료됩니다. 먼저 작업 1을 기다린 다음 작업 2를 기다리는 대신...

보통 as_completed(fs)에서 미래를 위해 이 함수를 사용하세요.

concurrent.futures.wait(fs, timeout=None, return_when=ALL_COMPLETED): return_when에 의해 지정된 이벤트가 발생할 때까지 기다리거나 시간 초과

return_when에는 세 가지 옵션이 있습니다: ALL_COMPLETED(fs의 모든 future가 완료됨), FIRST__COMPLETED(Any fs의 future가 완료됨) 및 FIRST_EXCEPTION(작업에서 예외가 발생함)

Future 디자인 패턴

여기서 PoolExecutor의 특징은 Future 디자인 패턴을 사용하여 작업 실행과 결과 획득을 비동기식으로 만든다는 것입니다. 프로세스.

먼저 submit/map을 통해 작업을 작업 대기열에 넣은 다음 작업이 실행되기 시작했습니다! 그런 다음 필요할 때 future를 통해 결과를 얻거나 직접 add_done_callback(fn)을 얻습니다.

이 작업은 새 작업자에서 실행됩니다. 메인 프로세스/스레드는 차단되지 않으므로 메인 스레드가 다른 작업을 수행할 수 있습니다. 이 접근 방식을 비동기 프로그래밍이라고 합니다.

Offscreen

concurrent.futures는 multiprocessing.pool을 기반으로 구현되므로 실제로 스레드/프로세스 풀을 직접 사용하는 것보다 약간 느립니다. 하지만 보다 편리하고 간결한 API를 제공합니다.

위 내용은 Python 동시성에서 PoolExecutor 소개(예제 포함)의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. 크로스 플레이가 있습니까?
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

PHP 및 Python : 코드 예제 및 비교 PHP 및 Python : 코드 예제 및 비교 Apr 15, 2025 am 12:07 AM

PHP와 Python은 고유 한 장점과 단점이 있으며 선택은 프로젝트 요구와 개인 선호도에 달려 있습니다. 1.PHP는 대규모 웹 애플리케이션의 빠른 개발 및 유지 보수에 적합합니다. 2. Python은 데이터 과학 및 기계 학습 분야를 지배합니다.

Centos에서 Pytorch에 대한 GPU 지원은 어떻습니까? Centos에서 Pytorch에 대한 GPU 지원은 어떻습니까? Apr 14, 2025 pm 06:48 PM

CentOS 시스템에서 Pytorch GPU 가속도를 활성화하려면 Cuda, Cudnn 및 GPU 버전의 Pytorch를 설치해야합니다. 다음 단계는 프로세스를 안내합니다. CUDA 및 CUDNN 설치 CUDA 버전 호환성 결정 : NVIDIA-SMI 명령을 사용하여 NVIDIA 그래픽 카드에서 지원하는 CUDA 버전을보십시오. 예를 들어, MX450 그래픽 카드는 CUDA11.1 이상을 지원할 수 있습니다. Cudatoolkit 다운로드 및 설치 : NVIDIACUDATOOLKIT의 공식 웹 사이트를 방문하여 그래픽 카드에서 지원하는 가장 높은 CUDA 버전에 따라 해당 버전을 다운로드하여 설치하십시오. CUDNN 라이브러리 설치 :

Docker 원리에 대한 자세한 설명 Docker 원리에 대한 자세한 설명 Apr 14, 2025 pm 11:57 PM

Docker는 Linux 커널 기능을 사용하여 효율적이고 고립 된 응용 프로그램 실행 환경을 제공합니다. 작동 원리는 다음과 같습니다. 1. 거울은 읽기 전용 템플릿으로 사용되며, 여기에는 응용 프로그램을 실행하는 데 필요한 모든 것을 포함합니다. 2. Union 파일 시스템 (Unionfs)은 여러 파일 시스템을 스택하고 차이점 만 저장하고 공간을 절약하고 속도를 높입니다. 3. 데몬은 거울과 컨테이너를 관리하고 클라이언트는 상호 작용을 위해 사용합니다. 4. 네임 스페이스 및 CGroup은 컨테이너 격리 및 자원 제한을 구현합니다. 5. 다중 네트워크 모드는 컨테이너 상호 연결을 지원합니다. 이러한 핵심 개념을 이해 함으로써만 Docker를 더 잘 활용할 수 있습니다.

Python vs. JavaScript : 커뮤니티, 라이브러리 및 리소스 Python vs. JavaScript : 커뮤니티, 라이브러리 및 리소스 Apr 15, 2025 am 12:16 AM

Python과 JavaScript는 커뮤니티, 라이브러리 및 리소스 측면에서 고유 한 장점과 단점이 있습니다. 1) Python 커뮤니티는 친절하고 초보자에게 적합하지만 프론트 엔드 개발 리소스는 JavaScript만큼 풍부하지 않습니다. 2) Python은 데이터 과학 및 기계 학습 라이브러리에서 강력하며 JavaScript는 프론트 엔드 개발 라이브러리 및 프레임 워크에서 더 좋습니다. 3) 둘 다 풍부한 학습 리소스를 가지고 있지만 Python은 공식 문서로 시작하는 데 적합하지만 JavaScript는 MDNWebDocs에서 더 좋습니다. 선택은 프로젝트 요구와 개인적인 이익을 기반으로해야합니다.

미니 오펜 센토 호환성 미니 오펜 센토 호환성 Apr 14, 2025 pm 05:45 PM

Minio Object Storage : Centos System Minio 하의 고성능 배포는 Go Language를 기반으로 개발 한 고성능 분산 객체 저장 시스템입니다. Amazons3과 호환됩니다. Java, Python, JavaScript 및 Go를 포함한 다양한 클라이언트 언어를 지원합니다. 이 기사는 CentOS 시스템에 대한 Minio의 설치 및 호환성을 간단히 소개합니다. CentOS 버전 호환성 Minio는 다음을 포함하되 이에 국한되지 않는 여러 CentOS 버전에서 확인되었습니다. CentOS7.9 : 클러스터 구성, 환경 준비, 구성 파일 설정, 디스크 파티셔닝 및 미니를 다루는 완전한 설치 안내서를 제공합니다.

Centos에서 Pytorch의 분산 교육을 운영하는 방법 Centos에서 Pytorch의 분산 교육을 운영하는 방법 Apr 14, 2025 pm 06:36 PM

CentOS 시스템에 대한 Pytorch 분산 교육에는 다음 단계가 필요합니다. Pytorch 설치 : 전제는 Python과 PIP가 CentOS 시스템에 설치된다는 것입니다. CUDA 버전에 따라 Pytorch 공식 웹 사이트에서 적절한 설치 명령을 받으십시오. CPU 전용 교육의 경우 다음 명령을 사용할 수 있습니다. PipinStalltorchtorchvisiontorchaudio GPU 지원이 필요한 경우 CUDA 및 CUDNN의 해당 버전이 설치되어 있는지 확인하고 해당 PyTorch 버전을 설치하려면 설치하십시오. 분산 환경 구성 : 분산 교육에는 일반적으로 여러 기계 또는 단일 기계 다중 GPU가 필요합니다. 장소

Centos에서 Pytorch 버전을 선택하는 방법 Centos에서 Pytorch 버전을 선택하는 방법 Apr 14, 2025 pm 06:51 PM

CentOS 시스템에 Pytorch를 설치할 때는 적절한 버전을 신중하게 선택하고 다음 주요 요소를 고려해야합니다. 1. 시스템 환경 호환성 : 운영 체제 : CentOS7 이상을 사용하는 것이 좋습니다. Cuda 및 Cudnn : Pytorch 버전 및 Cuda 버전은 밀접하게 관련되어 있습니다. 예를 들어, pytorch1.9.0은 cuda11.1을 필요로하고 Pytorch2.0.1은 cuda11.3을 필요로합니다. CUDNN 버전도 CUDA 버전과 일치해야합니다. Pytorch 버전을 선택하기 전에 호환 CUDA 및 CUDNN 버전이 설치되었는지 확인하십시오. 파이썬 버전 : Pytorch 공식 지점

Centos에 nginx를 설치하는 방법 Centos에 nginx를 설치하는 방법 Apr 14, 2025 pm 08:06 PM

Centos Nginx를 설치하려면 다음 단계를 수행해야합니다. 개발 도구, PCRE-DEVEL 및 OPENSSL-DEVEL과 같은 종속성 설치. nginx 소스 코드 패키지를 다운로드하고 압축을 풀고 컴파일하고 설치하고 설치 경로를/usr/local/nginx로 지정하십시오. nginx 사용자 및 사용자 그룹을 만들고 권한을 설정하십시오. 구성 파일 nginx.conf를 수정하고 청취 포트 및 도메인 이름/IP 주소를 구성하십시오. Nginx 서비스를 시작하십시오. 종속성 문제, 포트 충돌 및 구성 파일 오류와 같은 일반적인 오류는주의를 기울여야합니다. 캐시를 켜고 작업자 프로세스 수 조정과 같은 특정 상황에 따라 성능 최적화를 조정해야합니다.

See all articles