Effizientes Lesen von Millionen Zeilen SQL-Daten mit Python

WBOY
Freigeben: 2024-07-18 17:57:42
Original
720 Leute haben es durchsucht

Efficiently Reading Millions of Rows of SQL Data with Python

Das Arbeiten mit großen Datensätzen in SQL kann eine Herausforderung sein, insbesondere wenn Sie Millionen von Zeilen effizient lesen müssen. Hier ist ein unkomplizierter Ansatz, wie Sie dies mithilfe von Python handhaben und sicherstellen können, dass Ihre Datenverarbeitung leistungsfähig und verwaltbar bleibt.

End-to-End-Big-Data- und Data-Science-Projekte gelöst

Verwenden Sie effiziente Datenbanktreiber

Python verfügt über mehrere Datenbanktreiber wie psycopg2 für PostgreSQL, mysql-connector-python für MySQL und sqlite3 für SQLite. Wählen Sie den Treiber, der am besten zu Ihrer Datenbank passt.

import mysql.connector

connection = mysql.connector.connect(
    host="your_host",
    user="your_username",
    password="your_password",
    database="your_database"
)
cursor = connection.cursor()
Nach dem Login kopieren

Daten in Blöcken abrufen

Das gleichzeitige Abrufen von Millionen Zeilen kann Ihr Gedächtnis überfordern. Rufen Sie Daten stattdessen mithilfe einer Schleife in überschaubaren Blöcken ab. Diese Methode hält die Speichernutzung niedrig und erhält die Leistung aufrecht.

chunk_size = 10000
offset = 0

while True:
    query = f"SELECT * FROM your_table LIMIT {chunk_size} OFFSET {offset}"
    cursor.execute(query)
    rows = cursor.fetchall()

    if not rows:
        break

    process_data(rows)
    offset += chunk_size
Nach dem Login kopieren

Daten effizient verarbeiten

Stellen Sie sicher, dass Ihre Datenverarbeitung innerhalb der Funktion „process_data“ effizient ist. Vermeiden Sie unnötige Berechnungen und nutzen Sie vektorisierte Operationen mit Bibliotheken wie NumPy oder Pandas.

import pandas as pd

def process_data(rows):
    df = pd.DataFrame(rows, columns=['col1', 'col2', 'col3'])
    # Perform operations on the DataFrame
    print(df.head())
Nach dem Login kopieren

Verbindungspooling nutzen

Bei sich wiederholenden Aufgaben kann Verbindungspooling dabei helfen, Datenbankverbindungen effizient zu verwalten. Bibliotheken wie SQLAlchemy bieten robuste Pooling-Lösungen.

from sqlalchemy import create_engine

engine = create_engine("mysql+mysqlconnector://user:password@host/dbname")
connection = engine.connect()

chunk_size = 10000
offset = 0

while True:
    query = f"SELECT * FROM your_table LIMIT {chunk_size} OFFSET {offset}"
    result_proxy = connection.execute(query)
    rows = result_proxy.fetchall()

    if not rows:
        break

    process_data(rows)
    offset += chunk_size
Nach dem Login kopieren

Wenn Sie diese Schritte befolgen, können Sie Millionen von Zeilen von SQL-Daten mit Python effizient lesen und verarbeiten. Dieser Ansatz stellt sicher, dass Ihre Anwendung auch bei der Verarbeitung großer Datenmengen reaktionsfähig und leistungsfähig bleibt.

Das obige ist der detaillierte Inhalt vonEffizientes Lesen von Millionen Zeilen SQL-Daten mit Python. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!