백엔드 개발 파이썬 튜토리얼 Python 파일 읽기 및 쓰기 작업에 대한 자세한 설명

Python 파일 읽기 및 쓰기 작업에 대한 자세한 설명

Oct 19, 2016 am 11:57 AM
python

1.open

open을 사용하여 파일을 연 후에는 파일 개체의 close() 메서드를 호출하는 것을 기억해야 합니다. 예를 들어 try/finally 문을 사용하여 파일이 최종적으로 닫힐 수 있는지 확인할 수 있습니다.

file_object = open('thefile.txt')

시도:

all_the_text = file_object.read( )

마지막으로:

File_object.close( )

참고: 파일을 열 때 예외가 발생하면 파일 객체 file_object가 close() 메서드를 실행할 수 없기 때문에 open 문을 try 블록에 배치할 수 없습니다.

2. 파일 읽기

텍스트 파일 읽기

input = open('data', 'r')

#두 번째 매개변수의 기본값은 r입니다.

input = open('data')

바이너리 파일 읽기

input = open('data', 'rb')

모든 콘텐츠 읽기

file_object = open('thefile.txt')

시도:

all_the_text = file_object.read( )

마지막으로:

file_object.close( )

고정 바이트 읽기

file_object = open('abinfile', 'rb' )

시도:

True인 동안:

청크 = file_object.read(100)

청크가 아닌 경우:

break

do_something_with(chunk)

마지막으로:

file_object.close( )

각 줄 읽기

list_of_all_the_lines = file_object.readlines( )

파일이 텍스트 파일인 경우 파일 객체를 직접 탐색하여 각 줄을 가져올 수도 있습니다.

file_object의 줄:

프로세스 라인

3. 파일 쓰기

텍스트 파일 쓰기

output = open('data', 'w')

바이너리 파일 쓰기

output = open('data', 'wb')

쓰기 파일 추가

output = open('data', 'w+')

데이터 쓰기

file_object = open('thefile.txt', 'w')

file_object .write(all_the_text)

file_object.close( )

여러 줄 쓰기

file_object.writelines(list_of_text_strings)

여러 줄을 쓰기 위해 writeline을 호출하는 것은 한 번에 모두 쓰기 위해 write를 사용하는 것보다 성능이 더 높다는 점에 유의하십시오.

로그 파일을 처리할 때 다음과 같은 상황이 자주 발생합니다. 로그 파일이 너무 커서 한 번에 처리하기 위해 전체 파일을 메모리로 읽어들이는 것이 불가능합니다. 물리적 메모리가 2GB인 컴퓨터에서 2GB의 로그 파일을 처리하는 경우 한 번에 200MB의 콘텐츠만 처리해야 할 수도 있습니다.

Python에서는 내장 File 객체가 이러한 작업을 수행하기 위해 readlines(sizehint) 함수를 직접 제공합니다. 다음 코드를 예로 들어 보겠습니다.

file = open('test.log', 'r')sizehint = 209715200 # 200Mposition = 0lines = file.readlines(sizehint)while not file.tell() - position

readlines(sizehint) 함수가 호출될 때마다 약 200MB의 데이터가 반환되며, 반환되는 모든 행은 완전한 라인 데이터, 대부분의 경우 반환된 데이터의 바이트 수는 sizehint에 지정된 값보다 약간 큽니다(readlines(sizehint) 함수가 마지막으로 호출되는 경우 제외). 일반적으로 Python은 사용자가 지정한 sizehint 값을 내부 캐시 크기의 정수배로 자동 조정합니다.

file은 Python의 특수한 유형으로, Python 프로그램에서 외부 파일을 조작하는 데 사용됩니다. Python의 모든 것은 객체이며 파일도 예외는 아닙니다. 파일에는 파일 메서드와 속성이 있습니다. 먼저 파일 객체를 생성하는 방법을 살펴보겠습니다.

file(name[, mode[, buffering]])

file() 함수는 파일 객체를 생성하는 데 사용됩니다. 별칭 open()은 아마도 더 명확하게는 내장 함수입니다. 매개변수를 살펴보겠습니다. 해당 매개변수는 모두 문자열 형식으로 전달됩니다. 이름은 파일의 이름입니다.

mode는 개방형 모드입니다. 선택적인 값은 r w a U이며, 이는 다양한 줄 바꿈을 지원하는 모드를 추가합니다. w 모드나 a 모드로 파일을 열었을 때 해당 파일이 없으면 자동으로 생성됩니다. 또한 기존 파일을 열기 위해 w 모드를 사용하면 원본 파일의 내용이 지워지는데, 이때 초기 파일 작업 표시가 파일의 시작 부분에 있기 때문입니다. 이때 쓰기 작업을 수행하면 원본 내용이 지워집니다. 반드시 삭제됩니다. 역사적인 이유로 인해 개행 문자는 시스템마다 다른 모드를 갖습니다. 예를 들어 Unix에서는 n이고 Windows에서는 'rn'입니다. r' 'n' 'rn'은 모두 개행 문자를 나타낼 수 있으며, 이 파일에 사용된 개행 문자를 저장하는 데 사용되는 튜플이 있습니다. 그러나 줄바꿈에는 여러 가지 모드가 있지만 Python에서 읽을 때는 대신 n이 사용됩니다. 모드 문자 뒤에 두 개의 기호 + b t를 추가할 수도 있습니다. 이는 각각 파일을 동시에 읽고 쓸 수 있으며 파일을 바이너리 모드 또는 텍스트 모드(기본값)로 열 수 있음을 나타냅니다.

버퍼링이 0이면 버퍼링이 없음을 의미하고, 1이면 "라인 버퍼링"을 의미하며, 1보다 큰 숫자이면 버퍼 크기(바이트)를 의미합니다.

파일 개체에는 고유한 속성과 메서드가 있습니다. 먼저 파일의 속성을 살펴보겠습니다.

closed #파일이 닫혔는지 표시하고 close()로 다시 작성

encoding #파일 인코딩

mode #Open 모드

이름 #File name

newlines #파일에 사용된 뉴라인 모드는 튜플

softspace #boolean 타입, 보통 0. print를 읽고 쓰는 데 사용된다고 합니다

file:

F.read([size]) #size는 읽는 길이(바이트)입니다.

F.readline([size])

#한 줄 읽기 , size가 정의된 경우 줄의 일부만 반환하는 것이 가능합니다

F.readlines([size])

# 파일의 각 줄을 목록의 구성원으로 처리합니다. 이 목록을 반환합니다. 실제로 루프에서 readline()을 호출하여 내부적으로 구현됩니다. size 매개변수가 제공되면 size는 읽은 내용의 전체 길이를 나타내며, 이는 파일의 일부만 읽을 수 있음을 의미합니다.

F.write(str)

#Write str을 파일에 쓰면 write()는 str 뒤에 개행 문자를 추가하지 않습니다

F.writelines( seq)

#seq의 모든 내용을 파일에 씁니다. 이 함수는 또한 각 줄 뒤에 아무것도 추가하지 않고 충실하게 작성합니다.

파일의 다른 방법:

F.close()

#파일을 닫습니다. Python은 더 이상 사용되지 않는 파일을 자동으로 닫습니다. 그러나 이 기능은 보장되지 않습니다. 직접 닫는 습관을 기르는 것이 가장 좋습니다. 파일을 닫은 후 조작하면 ValueError가 발생합니다.

F.flush()

#버퍼의 내용을 하드디스크에 쓰기

F.fileno( )

#긴 정수 "파일 레이블"을 반환합니다.

F.isatty()

#파일이 터미널 장치 파일인지 여부(unix 시스템의 경우) )

F.tell()

#파일의 시작을 원점으로 하여 파일 동작 표시의 현재 위치를 반환합니다

F.next()

#다음 줄을 반환하고 파일 작업 플래그를 다음 줄로 이동합니다. for ... in file과 같은 문에서 파일이 사용되면 순회를 구현하기 위해 next() 함수가 호출됩니다.

F.seek(offset[,whence])

#파일 연산 표시를 오프셋 위치로 이동합니다. 이 오프셋은 일반적으로 파일 시작 부분을 기준으로 계산되며 일반적으로 양수입니다. 하지만 wherece 매개변수가 제공되면 처음부터 계산을 시작하는 경우 0이 될 수 있고 현재 위치를 원점으로 사용하는 경우에는 1이 될 수 있습니다. 2는 파일의 끝이 계산의 원본으로 사용됨을 나타냅니다. 파일을 a 또는 a+ 모드로 열면 쓰기 작업을 수행할 때마다 파일 작업 표시가 자동으로 파일 끝으로 돌아갑니다.

F.truncate([size])

#파일을 지정된 크기로 자릅니다. 기본값은 현재 파일 작업 표시 위치까지 자릅니다. 크기가 파일 크기보다 큰 경우 시스템에 따라 파일이 변경되지 않거나 해당 크기에 0으로 파일이 채워지거나 임의의 내용이 추가될 수 있습니다.


본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

MySQL은 지불해야합니다 MySQL은 지불해야합니다 Apr 08, 2025 pm 05:36 PM

MySQL에는 무료 커뮤니티 버전과 유료 엔터프라이즈 버전이 있습니다. 커뮤니티 버전은 무료로 사용 및 수정할 수 있지만 지원은 제한되어 있으며 안정성이 낮은 응용 프로그램에 적합하며 기술 기능이 강합니다. Enterprise Edition은 안정적이고 신뢰할 수있는 고성능 데이터베이스가 필요하고 지원 비용을 기꺼이 지불하는 응용 프로그램에 대한 포괄적 인 상업적 지원을 제공합니다. 버전을 선택할 때 고려 된 요소에는 응용 프로그램 중요도, 예산 책정 및 기술 기술이 포함됩니다. 완벽한 옵션은없고 가장 적합한 옵션 만 있으므로 특정 상황에 따라 신중하게 선택해야합니다.

hadidb : 파이썬의 가볍고 수평 확장 가능한 데이터베이스 hadidb : 파이썬의 가볍고 수평 확장 가능한 데이터베이스 Apr 08, 2025 pm 06:12 PM

HADIDB : 가볍고 높은 수준의 확장 가능한 Python 데이터베이스 HadIDB (HADIDB)는 파이썬으로 작성된 경량 데이터베이스이며 확장 수준이 높습니다. PIP 설치를 사용하여 HADIDB 설치 : PIPINSTALLHADIDB 사용자 관리 사용자 만들기 사용자 : createUser () 메소드를 작성하여 새 사용자를 만듭니다. Authentication () 메소드는 사용자의 신원을 인증합니다. Fromhadidb.operationimportuseruser_obj = user ( "admin", "admin") user_obj.

MongoDB 데이터베이스 비밀번호를 보는 Navicat의 방법 MongoDB 데이터베이스 비밀번호를 보는 Navicat의 방법 Apr 08, 2025 pm 09:39 PM

해시 값으로 저장되기 때문에 MongoDB 비밀번호를 Navicat을 통해 직접 보는 것은 불가능합니다. 분실 된 비밀번호 검색 방법 : 1. 비밀번호 재설정; 2. 구성 파일 확인 (해시 값이 포함될 수 있음); 3. 코드를 점검하십시오 (암호 하드 코드 메일).

MySQL은 인터넷이 필요합니까? MySQL은 인터넷이 필요합니까? Apr 08, 2025 pm 02:18 PM

MySQL은 기본 데이터 저장 및 관리를위한 네트워크 연결없이 실행할 수 있습니다. 그러나 다른 시스템과의 상호 작용, 원격 액세스 또는 복제 및 클러스터링과 같은 고급 기능을 사용하려면 네트워크 연결이 필요합니다. 또한 보안 측정 (예 : 방화벽), 성능 최적화 (올바른 네트워크 연결 선택) 및 데이터 백업은 인터넷에 연결하는 데 중요합니다.

MySQL을 해결하는 방법은 로컬 호스트에 연결할 수 없습니다 MySQL을 해결하는 방법은 로컬 호스트에 연결할 수 없습니다 Apr 08, 2025 pm 02:24 PM

MySQL 연결은 다음과 같은 이유로 인한 것일 수 있습니다. MySQL 서비스가 시작되지 않았고 방화벽이 연결을 가로 채고 포트 번호가 올바르지 않으며 사용자 이름 또는 비밀번호가 올바르지 않으며 My.cnf의 청취 주소가 부적절하게 구성되어 있습니다. 1. MySQL 서비스가 실행 중인지 확인합니다. 2. MySQL이 포트 3306을들을 수 있도록 방화벽 설정을 조정하십시오. 3. 포트 번호가 실제 포트 번호와 일치하는지 확인하십시오. 4. 사용자 이름과 암호가 올바른지 확인하십시오. 5. my.cnf의 바인드 아드 드레스 설정이 올바른지 확인하십시오.

MySQL Workbench가 Mariadb에 연결할 수 있습니다 MySQL Workbench가 Mariadb에 연결할 수 있습니다 Apr 08, 2025 pm 02:33 PM

MySQL Workbench는 구성이 올바른 경우 MariadB에 연결할 수 있습니다. 먼저 커넥터 유형으로 "mariadb"를 선택하십시오. 연결 구성에서 호스트, 포트, 사용자, 비밀번호 및 데이터베이스를 올바르게 설정하십시오. 연결을 테스트 할 때는 마리아드 브 서비스가 시작되었는지, 사용자 이름과 비밀번호가 올바른지, 포트 번호가 올바른지, 방화벽이 연결을 허용하는지 및 데이터베이스가 존재하는지 여부를 확인하십시오. 고급 사용에서 연결 풀링 기술을 사용하여 성능을 최적화하십시오. 일반적인 오류에는 불충분 한 권한, 네트워크 연결 문제 등이 포함됩니다. 오류를 디버깅 할 때 오류 정보를 신중하게 분석하고 디버깅 도구를 사용하십시오. 네트워크 구성을 최적화하면 성능이 향상 될 수 있습니다

고로드 애플리케이션의 MySQL 성능을 최적화하는 방법은 무엇입니까? 고로드 애플리케이션의 MySQL 성능을 최적화하는 방법은 무엇입니까? Apr 08, 2025 pm 06:03 PM

MySQL 데이터베이스 성능 최적화 안내서 리소스 집약적 응용 프로그램에서 MySQL 데이터베이스는 중요한 역할을 수행하며 대규모 트랜잭션 관리를 담당합니다. 그러나 응용 프로그램 규모가 확장됨에 따라 데이터베이스 성능 병목 현상은 종종 제약이됩니다. 이 기사는 일련의 효과적인 MySQL 성능 최적화 전략을 탐색하여 응용 프로그램이 고 부하에서 효율적이고 반응이 유지되도록합니다. 실제 사례를 결합하여 인덱싱, 쿼리 최적화, 데이터베이스 설계 및 캐싱과 같은 심층적 인 주요 기술을 설명합니다. 1. 데이터베이스 아키텍처 설계 및 최적화 된 데이터베이스 아키텍처는 MySQL 성능 최적화의 초석입니다. 몇 가지 핵심 원칙은 다음과 같습니다. 올바른 데이터 유형을 선택하고 요구 사항을 충족하는 가장 작은 데이터 유형을 선택하면 저장 공간을 절약 할 수있을뿐만 아니라 데이터 처리 속도를 향상시킬 수 있습니다.

Amazon Athena와 함께 AWS Glue Crawler를 사용하는 방법 Amazon Athena와 함께 AWS Glue Crawler를 사용하는 방법 Apr 09, 2025 pm 03:09 PM

데이터 전문가는 다양한 소스에서 많은 양의 데이터를 처리해야합니다. 이것은 데이터 관리 및 분석에 어려움을 겪을 수 있습니다. 다행히도 AWS Glue와 Amazon Athena의 두 가지 AWS 서비스가 도움이 될 수 있습니다.

See all articles