Python의 'with' 키워드와 컨텍스트 관리자에 대한 자세한 설명
이 글은 Python의 "with" 키워드와 컨텍스트 관리자에 대한 관련 정보를 주로 소개합니다. 글의 소개는 Python을 배우고 사용하는 모든 사람에게 확실한 참고 가치가 있다고 생각합니다. 아래에서 읽을 수 있습니다. 살펴보겠습니다.
머리말
소스코드를 읽는 습관이 있다면 "with" 키워드와 함께 우수한 코드가 자주 등장하는 것을 볼 수 있을 것입니다. 진술, 일반적으로 어떤 시나리오에서 사용됩니까? 오늘은 컨텍스트 관리자에 대해 이야기해 보겠습니다.
파일, 데이터베이스 연결, 소켓과 같은 시스템 리소스의 경우 애플리케이션이 이러한 리소스를 열고 비즈니스 로직을 실행한 후 해야 할 한 가지 작업은 리소스를 닫는 것(연결 끊기)입니다.
예를 들어 Python 프로그램은 파일을 열고 파일에 내용을 쓴 후 파일을 닫아야 합니다. 극단적인 경우에는 시스템에서 열 수 있는 최대 파일 수가 제한되어 있기 때문에 "열린 파일이 너무 많습니다" 오류가 발생할 수 있습니다.
마찬가지로 데이터베이스의 경우 연결이 너무 많아 제때 닫히지 않으면 "MySQL 서버에 연결할 수 없습니다. 연결이 너무 많습니다."라는 메시지가 나타날 수 있습니다. 데이터베이스 연결은 매우 비싼 리소스이고 연결이 불가능하기 때문입니다. 시간 제한 없이 생성될 수 있습니다.
파일을 올바르게 닫는 방법을 알아보겠습니다.
일반 버전:
def m1(): f = open("output.txt", "w") f.write("python之禅") f.close()
쓰기 호출 중에 예외가 발생하면 후속 코드를 계속 실행할 수 없게 되는 잠재적인 문제가 있습니다. , close 메소드를 정상적으로 호출할 수 없으며 리소스는 항상 프로그램 점유자에 의해 해제됩니다. 그렇다면 어떻게 코드를 개선할 수 있을까요?
고급 버전:
def m2(): f = open("output.txt", "w") try: f.write("python之禅") except IOError: print("oops error") finally: f.close()
개선된 버전의 프로그램은 프로그램이 다음에서 발생하는지 나타내는 try/finally 문을 사용하여 예외가 발생할 수 있는 코드를 캡처하려고 시도하는 것입니다. try code block 예외가 발생하면 후속 코드는 더 이상 실행되지 않고 코드 블록 제외로 바로 이동합니다. 무슨 일이 있어도 finally 블록의 코드는 결국 실행됩니다. 따라서 finally 코드에 close가 배치되어 있는 한 파일은 확실히 닫힙니다.
고급 버전:
def m3(): with open("output.txt", "w") as f: f.write("Python之禅")
더 간결하고 우아한 방법은 with 키워드를 사용하는 것입니다. open 메소드의 반환값은 변수 f에 할당됩니다. with 코드 블록을 종료하면 시스템은 자동으로 f.close()
메소드를 호출합니다. with의 기능은 try/finally 문을 사용하는 것과 같습니다. 그렇다면 구현 원칙은 무엇입니까?
with의 원리에 대해 이야기하기 전에 컨텍스트 관리자라는 또 다른 개념을 다루어야 합니다.
컨텍스트 관리자
__enter__()
및 __exit__()
메서드를 구현하는 모든 개체를 컨텍스트 관리자 개체라고 부를 수 있습니다. with 키워드를 사용하세요. 분명히 파일 객체는 컨텍스트 관리자도 구현합니다.
그렇다면 파일 객체는 이 두 가지 메소드를 어떻게 구현합니까? 우리는 우리 자신의 파일 클래스 구현을 시뮬레이션하고 클래스가 __enter__()
및 __exit__()
메서드를 구현하도록 할 수 있습니다.
class File(): def __init__(self, filename, mode): self.filename = filename self.mode = mode def __enter__(self): print("entering") self.f = open(self.filename, self.mode) return self.f def __exit__(self, *args): print("will exit") self.f.close()
__enter__()
메서드는 열려는 파일 개체인 리소스 개체를 반환합니다. __exit__()
메서드는 일부 정리 작업을 처리합니다.
File 클래스는 컨텍스트 관리자를 구현하므로 이제 with 문을 사용할 수 있습니다.
with File('out.txt', 'w') as f: print("writing") f.write('hello, python')
이렇게 하면 close 메소드를 명시적으로 호출할 필요가 없습니다. 중간에 예외가 발생하더라도 시스템이 자동으로 호출합니다.
contextlib
Python은 컨텍스트 관리자 구현을 더욱 단순화하는 contextmanager 데코레이터도 제공합니다. 함수는 Yield에 따라 두 부분으로 나누어집니다. Yield 이전 명령문은 __enter__
메서드에서 실행되고, Yield 이후 명령문은 __exit__
메서드에서 실행됩니다. Yield 바로 뒤의 값은 함수의 반환 값입니다.
콜
아아아아요약
위 내용은 Python의 'with' 키워드와 컨텍스트 관리자에 대한 자세한 설명의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











PHP와 Python은 고유 한 장점과 단점이 있으며 선택은 프로젝트 요구와 개인 선호도에 달려 있습니다. 1.PHP는 대규모 웹 애플리케이션의 빠른 개발 및 유지 보수에 적합합니다. 2. Python은 데이터 과학 및 기계 학습 분야를 지배합니다.

CentOS 시스템에서 Pytorch 모델을 효율적으로 교육하려면 단계가 필요 하며이 기사는 자세한 가이드를 제공합니다. 1. 환경 준비 : 파이썬 및 종속성 설치 : CentOS 시스템은 일반적으로 파이썬을 사전 설치하지만 버전은 더 오래 될 수 있습니다. YUM 또는 DNF를 사용하여 Python 3 및 Upgrade Pip : Sudoyumupdatepython3 (또는 SudodnfupdatePython3), PIP3INSTALL-UPGRADEPIP를 설치하는 것이 좋습니다. CUDA 및 CUDNN (GPU 가속도) : NVIDIAGPU를 사용하는 경우 Cudatool을 설치해야합니다.

Python과 JavaScript는 커뮤니티, 라이브러리 및 리소스 측면에서 고유 한 장점과 단점이 있습니다. 1) Python 커뮤니티는 친절하고 초보자에게 적합하지만 프론트 엔드 개발 리소스는 JavaScript만큼 풍부하지 않습니다. 2) Python은 데이터 과학 및 기계 학습 라이브러리에서 강력하며 JavaScript는 프론트 엔드 개발 라이브러리 및 프레임 워크에서 더 좋습니다. 3) 둘 다 풍부한 학습 리소스를 가지고 있지만 Python은 공식 문서로 시작하는 데 적합하지만 JavaScript는 MDNWebDocs에서 더 좋습니다. 선택은 프로젝트 요구와 개인적인 이익을 기반으로해야합니다.

CentOS 시스템에서 Pytorch GPU 가속도를 활성화하려면 Cuda, Cudnn 및 GPU 버전의 Pytorch를 설치해야합니다. 다음 단계는 프로세스를 안내합니다. CUDA 및 CUDNN 설치 CUDA 버전 호환성 결정 : NVIDIA-SMI 명령을 사용하여 NVIDIA 그래픽 카드에서 지원하는 CUDA 버전을보십시오. 예를 들어, MX450 그래픽 카드는 CUDA11.1 이상을 지원할 수 있습니다. Cudatoolkit 다운로드 및 설치 : NVIDIACUDATOOLKIT의 공식 웹 사이트를 방문하여 그래픽 카드에서 지원하는 가장 높은 CUDA 버전에 따라 해당 버전을 다운로드하여 설치하십시오. CUDNN 라이브러리 설치 :

Docker는 Linux 커널 기능을 사용하여 효율적이고 고립 된 응용 프로그램 실행 환경을 제공합니다. 작동 원리는 다음과 같습니다. 1. 거울은 읽기 전용 템플릿으로 사용되며, 여기에는 응용 프로그램을 실행하는 데 필요한 모든 것을 포함합니다. 2. Union 파일 시스템 (Unionfs)은 여러 파일 시스템을 스택하고 차이점 만 저장하고 공간을 절약하고 속도를 높입니다. 3. 데몬은 거울과 컨테이너를 관리하고 클라이언트는 상호 작용을 위해 사용합니다. 4. 네임 스페이스 및 CGroup은 컨테이너 격리 및 자원 제한을 구현합니다. 5. 다중 네트워크 모드는 컨테이너 상호 연결을 지원합니다. 이러한 핵심 개념을 이해 함으로써만 Docker를 더 잘 활용할 수 있습니다.

Centos에서 Pytorch 버전을 선택할 때 다음과 같은 주요 요소를 고려해야합니다. 1. Cuda 버전 호환성 GPU 지원 : NVIDIA GPU가 있고 GPU 가속도를 사용하려면 해당 CUDA 버전을 지원하는 Pytorch를 선택해야합니다. NVIDIA-SMI 명령을 실행하여 지원되는 CUDA 버전을 볼 수 있습니다. CPU 버전 : GPU가 없거나 GPU를 사용하지 않으려면 Pytorch의 CPU 버전을 선택할 수 있습니다. 2. 파이썬 버전 Pytorch

Centos Nginx를 설치하려면 다음 단계를 수행해야합니다. 개발 도구, PCRE-DEVEL 및 OPENSSL-DEVEL과 같은 종속성 설치. nginx 소스 코드 패키지를 다운로드하고 압축을 풀고 컴파일하고 설치하고 설치 경로를/usr/local/nginx로 지정하십시오. nginx 사용자 및 사용자 그룹을 만들고 권한을 설정하십시오. 구성 파일 nginx.conf를 수정하고 청취 포트 및 도메인 이름/IP 주소를 구성하십시오. Nginx 서비스를 시작하십시오. 종속성 문제, 포트 충돌 및 구성 파일 오류와 같은 일반적인 오류는주의를 기울여야합니다. 캐시를 켜고 작업자 프로세스 수 조정과 같은 특정 상황에 따라 성능 최적화를 조정해야합니다.

CentOS 시스템에 대한 Pytorch 분산 교육에는 다음 단계가 필요합니다. Pytorch 설치 : 전제는 Python과 PIP가 CentOS 시스템에 설치된다는 것입니다. CUDA 버전에 따라 Pytorch 공식 웹 사이트에서 적절한 설치 명령을 받으십시오. CPU 전용 교육의 경우 다음 명령을 사용할 수 있습니다. PipinStalltorchtorchvisiontorchaudio GPU 지원이 필요한 경우 CUDA 및 CUDNN의 해당 버전이 설치되어 있는지 확인하고 해당 PyTorch 버전을 설치하려면 설치하십시오. 분산 환경 구성 : 분산 교육에는 일반적으로 여러 기계 또는 단일 기계 다중 GPU가 필요합니다. 장소
