


Wie kann ich riesige CSV-Dateien in Python 2.7 effizient verarbeiten, ohne auf Speicherprobleme zu stoßen?
Lesen riesiger CSV-Dateien: Speicher und Geschwindigkeit optimieren
Beim Versuch, riesige CSV-Dateien mit Millionen von Zeilen und Hunderten von Spalten zu verarbeiten, traditionell Ansätze, die Iteratoren verwenden, können zu Speicherproblemen führen. In diesem Artikel werden optimierte Techniken für den Umgang mit umfangreichen CSV-Daten in Python 2.7 untersucht.
Speicheroptimierung:
Der Kern des Speicherproblems liegt in der Erstellung von In-Memory-Listen um große Datensätze zu speichern. Um dieses Problem zu entschärfen, bietet Python das Schlüsselwort yield an, das Funktionen in Generatorfunktionen umwandelt. Diese Funktionen unterbrechen die Ausführung nach jeder Yield-Anweisung und ermöglichen so eine inkrementelle Verarbeitung der Daten, sobald sie gefunden werden.
Durch den Einsatz von Generatorfunktionen können Sie Daten Zeile für Zeile verarbeiten, wodurch die Notwendigkeit entfällt, ganze Dateien im Speicher zu speichern. Der folgende Code demonstriert diesen Ansatz:
import csv def getstuff(filename, criterion): with open(filename, "rb") as csvfile: datareader = csv.reader(csvfile) yield next(datareader) # yield header row count = 0 for row in datareader: if row[3] == criterion: yield row count += 1 elif count: # stop processing when a consecutive series of non-matching rows is encountered return
Geschwindigkeitsverbesserungen:
Zusätzlich können Sie die Dropwhile- und Takewhile-Funktionen von Python nutzen, um die Verarbeitungsgeschwindigkeit weiter zu verbessern. Mit diesen Funktionen können Daten effizient gefiltert werden, sodass Sie die gewünschten Zeilen schnell finden können. So geht's:
from itertools import dropwhile, takewhile def getstuff(filename, criterion): with open(filename, "rb") as csvfile: datareader = csv.reader(csvfile) yield next(datareader) # yield header row yield from takewhile( # yield matching rows lambda r: r[3] == criterion, dropwhile( # skip non-matching rows lambda r: r[3] != criterion, datareader)) return
Vereinfachte Schleifenverarbeitung:
Durch die Kombination von Generatorfunktionen können Sie den Prozess der Schleife durch Ihren Datensatz erheblich vereinfachen. Hier ist der optimierte Code für getstuff und getdata:
def getdata(filename, criteria): for criterion in criteria: for row in getstuff(filename, criterion): yield row
Jetzt können Sie direkt über den getdata-Generator iterieren, der Zeile für Zeile einen Stream von Zeilen erzeugt und so wertvolle Speicherressourcen freigibt.
Denken Sie daran, dass das Ziel darin besteht, die In-Memory-Datenspeicherung zu minimieren und gleichzeitig die Verarbeitungseffizienz zu maximieren. Durch die Anwendung dieser Optimierungstechniken können Sie riesige CSV-Dateien effektiv verarbeiten, ohne auf Speicherblockaden zu stoßen.
Das obige ist der detaillierte Inhalt vonWie kann ich riesige CSV-Dateien in Python 2.7 effizient verarbeiten, ohne auf Speicherprobleme zu stoßen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Lösung für Erlaubnisprobleme beim Betrachten der Python -Version in Linux Terminal Wenn Sie versuchen, die Python -Version in Linux Terminal anzuzeigen, geben Sie Python ein ...

Wie kann man nicht erkannt werden, wenn Sie Fiddlereverywhere für Man-in-the-Middle-Lesungen verwenden, wenn Sie FiddLereverywhere verwenden ...

Bei der Verwendung von Pythons Pandas -Bibliothek ist das Kopieren von ganzen Spalten zwischen zwei Datenrahmen mit unterschiedlichen Strukturen ein häufiges Problem. Angenommen, wir haben zwei Daten ...

Wie lehre ich innerhalb von 10 Stunden die Grundlagen für Computer -Anfänger für Programmierungen? Wenn Sie nur 10 Stunden Zeit haben, um Computer -Anfänger zu unterrichten, was Sie mit Programmierkenntnissen unterrichten möchten, was würden Sie dann beibringen ...

Wie hört Uvicorn kontinuierlich auf HTTP -Anfragen an? Uvicorn ist ein leichter Webserver, der auf ASGI basiert. Eine seiner Kernfunktionen ist es, auf HTTP -Anfragen zu hören und weiterzumachen ...

Fastapi ...

Verwenden Sie Python im Linux -Terminal ...

Verständnis der Anti-Crawling-Strategie von Investing.com Viele Menschen versuchen oft, Nachrichten von Investing.com (https://cn.investing.com/news/latest-news) zu kriechen ...
