Heim > Backend-Entwicklung > Python-Tutorial > Beherrschung der Python-Speicheroptimierung: Techniken für Datenwissenschaft und maschinelles Lernen

Beherrschung der Python-Speicheroptimierung: Techniken für Datenwissenschaft und maschinelles Lernen

Barbara Streisand
Freigeben: 2025-01-20 06:14:10
Original
386 Leute haben es durchsucht

Mastering Python Memory Optimization: Techniques for Data Science and Machine Learning

Als produktiver Autor lade ich Sie ein, meine Amazon-Buchsammlung zu erkunden. Denken Sie daran, mir auf Medium zu folgen, um Updates zu erhalten und Ihre Unterstützung zu zeigen! Wir wissen Ihre Ermutigung sehr zu schätzen!

Pythons wachsende Bedeutung in der Datenwissenschaft und im maschinellen Lernen erfordert eine effiziente Speicherverwaltung für Großprojekte. Die wachsende Größe von Datensätzen und steigende Rechenanforderungen machen eine optimierte Speichernutzung von entscheidender Bedeutung. Meine Erfahrung mit speicherintensiven Python-Anwendungen hat zu mehreren effektiven Optimierungsstrategien geführt, die ich hier teilen werde.

Wir beginnen mit NumPy, einer Eckpfeilerbibliothek für numerische Berechnungen. NumPy-Arrays bieten erhebliche Speichervorteile gegenüber Python-Listen, insbesondere bei umfangreichen Datensätzen. Ihre zusammenhängende Speicherzuweisung und statische Typisierung minimieren den Overhead.

Betrachten Sie diesen Vergleich:

<code class="language-python">import numpy as np
import sys

# Creating a list and a NumPy array with 1 million integers
py_list = list(range(1000000))
np_array = np.arange(1000000)

# Comparing memory usage
print(f"Python list size: {sys.getsizeof(py_list) / 1e6:.2f} MB")
print(f"NumPy array size: {np_array.nbytes / 1e6:.2f} MB")</code>
Nach dem Login kopieren
Nach dem Login kopieren

Der geringere Speicherbedarf des NumPy-Arrays wird deutlich. Diese Ungleichheit wird bei größeren Datensätzen noch ausgeprägter.

NumPy bietet auch speichereffiziente Vorgänge. Anstatt für jede Operation neue Arrays zu generieren, werden Arrays häufig direkt vor Ort geändert:

<code class="language-python"># In-place operations
np_array += 1  # Modifies the original array directly</code>
Nach dem Login kopieren
Nach dem Login kopieren

Wenn wir uns Pandas zuwenden, sind kategoriale Datentypen der Schlüssel zur Speicheroptimierung. Bei Zeichenfolgenspalten mit begrenzten eindeutigen Werten reduziert die Konvertierung in den kategorialen Typ den Speicherverbrauch drastisch:

<code class="language-python">import pandas as pd

# DataFrame with repeated string values
df = pd.DataFrame({'category': ['A', 'B', 'C'] * 1000000})

# Memory usage check
print(f"Original memory usage: {df.memory_usage(deep=True).sum() / 1e6:.2f} MB")

# Conversion to categorical
df['category'] = pd.Categorical(df['category'])

# Post-conversion memory usage
print(f"Memory usage after conversion: {df.memory_usage(deep=True).sum() / 1e6:.2f} MB")</code>
Nach dem Login kopieren
Nach dem Login kopieren

Die Speichereinsparungen können erheblich sein, insbesondere bei großen Datensätzen, die sich wiederholende Zeichenfolgen enthalten.

Für spärliche Datensätze bietet Pandas spärliche Datenstrukturen, die nur Nicht-Null-Werte speichern, was zu erheblichen Speichereinsparungen bei Datensätzen mit zahlreichen Null- oder Nullwerten führt:

<code class="language-python"># Creating a sparse series
sparse_series = pd.Series([0, 0, 1, 0, 2, 0, 0, 3], dtype="Sparse[int]")

print(f"Memory usage: {sparse_series.memory_usage(deep=True) / 1e3:.2f} KB")</code>
Nach dem Login kopieren
Nach dem Login kopieren

Wenn Datensätze den verfügbaren RAM überschreiten, sind speicherzugeordnete Dateien transformativ. Sie ermöglichen das Arbeiten mit großen Dateien, als ob sie im Speicher wären, ohne die gesamte Datei laden zu müssen:

<code class="language-python">import mmap
import os

# Creating a large file
with open('large_file.bin', 'wb') as f:
    f.write(b'0' * 1000000000)  # 1 GB file

# Memory-mapping the file
with open('large_file.bin', 'r+b') as f:
    mmapped_file = mmap.mmap(f.fileno(), 0)

# Reading from the memory-mapped file
print(mmapped_file[1000000:1000010])

# Cleaning up
mmapped_file.close()
os.remove('large_file.bin')</code>
Nach dem Login kopieren
Nach dem Login kopieren

Dies ist besonders nützlich für den Direktzugriff auf große Dateien, ohne diese vollständig in den Speicher zu laden.

Generatorausdrücke und itertools sind leistungsstark für eine speichereffiziente Datenverarbeitung. Sie ermöglichen die Verarbeitung großer Datensätze, ohne alles gleichzeitig in den Speicher zu laden:

<code class="language-python">import itertools

# Generator expression
sum_squares = sum(x*x for x in range(1000000))

# Using itertools for memory-efficient operations
evens = itertools.islice(itertools.count(0, 2), 1000000)
sum_evens = sum(evens)

print(f"Sum of squares: {sum_squares}")
print(f"Sum of even numbers: {sum_evens}")</code>
Nach dem Login kopieren
Nach dem Login kopieren

Diese Techniken minimieren den Speicheraufwand bei der Verarbeitung großer Datensätze.

Für performancekritische Codeabschnitte bietet Cython erhebliches Optimierungspotenzial. Das Kompilieren von Python-Code nach C führt zu erheblichen Geschwindigkeitsverbesserungen und einer möglichen Speicherreduzierung:

<code class="language-cython">def sum_squares_cython(int n):
    cdef int i
    cdef long long result = 0
    for i in range(n):
        result += i * i
    return result

# Usage
result = sum_squares_cython(1000000)
print(f"Sum of squares: {result}")</code>
Nach dem Login kopieren

Diese Cython-Funktion übertrifft ihr reines Python-Gegenstück, insbesondere bei großen n Werten.

PyPy, ein Just-In-Time-Compiler, bietet automatische Speicheroptimierungen. Dies ist besonders für Programme mit langer Laufzeit von Vorteil, da die Speichernutzung häufig erheblich reduziert wird:

<code class="language-python">import numpy as np
import sys

# Creating a list and a NumPy array with 1 million integers
py_list = list(range(1000000))
np_array = np.arange(1000000)

# Comparing memory usage
print(f"Python list size: {sys.getsizeof(py_list) / 1e6:.2f} MB")
print(f"NumPy array size: {np_array.nbytes / 1e6:.2f} MB")</code>
Nach dem Login kopieren
Nach dem Login kopieren

PyPy kann im Vergleich zu Standard-CPython zu einer verbesserten Speichereffizienz und -geschwindigkeit führen.

Speicherprofilierung ist für die Identifizierung von Optimierungsmöglichkeiten unerlässlich. Die memory_profilerBibliothek ist ein wertvolles Werkzeug:

<code class="language-python"># In-place operations
np_array += 1  # Modifies the original array directly</code>
Nach dem Login kopieren
Nach dem Login kopieren

Verwenden Sie mprof run script.py und mprof plot, um die Speichernutzung zu visualisieren.

Die Behebung von Speicherlecks ist von entscheidender Bedeutung. Das Modul tracemalloc (Python 3.4) hilft bei der Identifizierung von Speicherzuordnungsquellen:

<code class="language-python">import pandas as pd

# DataFrame with repeated string values
df = pd.DataFrame({'category': ['A', 'B', 'C'] * 1000000})

# Memory usage check
print(f"Original memory usage: {df.memory_usage(deep=True).sum() / 1e6:.2f} MB")

# Conversion to categorical
df['category'] = pd.Categorical(df['category'])

# Post-conversion memory usage
print(f"Memory usage after conversion: {df.memory_usage(deep=True).sum() / 1e6:.2f} MB")</code>
Nach dem Login kopieren
Nach dem Login kopieren

Dadurch werden speicherintensive Codeabschnitte lokalisiert.

Für extrem speicherintensive Anwendungen kann eine benutzerdefinierte Speicherverwaltung erforderlich sein. Dies könnte Objektpools für die Wiederverwendung von Objekten oder benutzerdefiniertes Caching umfassen:

<code class="language-python"># Creating a sparse series
sparse_series = pd.Series([0, 0, 1, 0, 2, 0, 0, 3], dtype="Sparse[int]")

print(f"Memory usage: {sparse_series.memory_usage(deep=True) / 1e3:.2f} KB")</code>
Nach dem Login kopieren
Nach dem Login kopieren

Dies minimiert den Aufwand für die Objekterstellung/-zerstörung.

Für außergewöhnlich große Datensätze sollten Sie Out-of-Core-Berechnungsbibliotheken wie Dask in Betracht ziehen:

<code class="language-python">import mmap
import os

# Creating a large file
with open('large_file.bin', 'wb') as f:
    f.write(b'0' * 1000000000)  # 1 GB file

# Memory-mapping the file
with open('large_file.bin', 'r+b') as f:
    mmapped_file = mmap.mmap(f.fileno(), 0)

# Reading from the memory-mapped file
print(mmapped_file[1000000:1000010])

# Cleaning up
mmapped_file.close()
os.remove('large_file.bin')</code>
Nach dem Login kopieren
Nach dem Login kopieren

Dask verarbeitet Datensätze, die größer als der verfügbare RAM sind, indem es Berechnungen in kleinere Teile aufteilt.

Die Optimierung des Algorithmus ist ebenfalls von entscheidender Bedeutung. Durch die Auswahl effizienter Algorithmen kann die Speichernutzung erheblich reduziert werden:

<code class="language-python">import itertools

# Generator expression
sum_squares = sum(x*x for x in range(1000000))

# Using itertools for memory-efficient operations
evens = itertools.islice(itertools.count(0, 2), 1000000)
sum_evens = sum(evens)

print(f"Sum of squares: {sum_squares}")
print(f"Sum of even numbers: {sum_evens}")</code>
Nach dem Login kopieren
Nach dem Login kopieren

Diese optimierte Fibonacci-Funktion verwendet im Gegensatz zu einer naiven rekursiven Implementierung einen konstanten Speicher.

Zusammenfassend lässt sich sagen, dass eine effektive Python-Speicheroptimierung effiziente Datenstrukturen, spezialisierte Bibliotheken, speichereffiziente Codierung und geeignete Algorithmen kombiniert. Diese Techniken reduzieren den Speicherbedarf und ermöglichen die Verarbeitung größerer Datensätze und komplexerer Berechnungen. Denken Sie daran, ein Profil Ihres Codes zu erstellen, um Engpässe zu identifizieren und Optimierungsbemühungen dort zu konzentrieren, wo sie die größte Wirkung haben.


101 Bücher

101 Books, ein KI-gestützter Verlag, der vom Autor Aarav Joshi mitbegründet wurde, nutzt KI, um die Veröffentlichungskosten zu minimieren und hochwertiges Wissen zugänglich zu machen (einige Bücher sind bereits ab 101 Bücher erhältlich). 4 $!).

Unser Golang Clean Code-Buch finden Sie auf Amazon.

Für Updates und weitere Titel suchen Sie auf Amazon nach Aarav Joshi. Spezielle Rabatte sind über [Link] verfügbar.

Unsere Kreationen

Entdecken Sie unsere Kreationen:

Investor Central | Investor Zentralspanisch | Investor Mitteldeutsch | Intelligentes Leben | Epochen & Echos | Rätselhafte Geheimnisse | Hindutva | Elite-Entwickler | JS-Schulen


Wir sind auf Medium

Tech Koala Insights | Epochs & Echoes World | Investor Central Medium | Puzzling Mysteries Medium | Wissenschaft & Epochen Medium | Modernes Hindutva

Das obige ist der detaillierte Inhalt vonBeherrschung der Python-Speicheroptimierung: Techniken für Datenwissenschaft und maschinelles Lernen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage