Heim > Backend-Entwicklung > Python-Tutorial > Wie lade ich große Dateien (≥3 GB) effektiv auf ein FastAPI-Backend hoch?

Wie lade ich große Dateien (≥3 GB) effektiv auf ein FastAPI-Backend hoch?

Susan Sarandon
Freigeben: 2024-12-04 15:22:11
Original
459 Leute haben es durchsucht

How to Effectively Upload Large Files (≥3GB) to a FastAPI Backend?

Wie lade ich eine große Datei (≥3 GB) in das FastAPI-Backend hoch?

FastAPI kann Dateien mit mehr als 1 MB verarbeiten, indem Teile der Datei abgerufen werden nacheinander aus dem Anfragetext. Durch diesen Ansatz entfällt die Notwendigkeit, die gesamte Datei in den Speicher zu laden, was beim Umgang mit großen Dateien empfohlen wird.

Clientseitige Anforderung:

m = MultipartEncoder(fields = {"upload_file":open(file_name,'rb')})
prefix = "http://xxx:5000"
url = "{}/v1/uploadfiles".format(prefix)
try:
    req = requests.post(
    url,
    data=m,
    verify=False,
            )
Nach dem Login kopieren

Serverseitige Antwort:

HTTP 422 {"detail":[{"loc":["body","upload_file"],"msg":"field required","type":"value_error.missing"}]}
Nach dem Login kopieren

Grund dafür Fehler:

Der Fehler tritt auf, weil die clientseitige Anfrage den Content-Type-Header weglässt. FastAPI erwartet, dass der Client beim Hochladen von Dateien mehrteilige/Formulardatenanfragen sendet. Ohne den Content-Type-Header kann FastAPI den Anfragetext nicht korrekt analysieren.

Lösung 1 (empfohlen): Verwendung von Streaming-Datei-Uploads und Chunk-Encoded-Anfragen

HTTPX-Bibliothek unterstützt standardmäßig das Hochladen von Streaming-Dateien, sodass Sie Dateien senden können, ohne sie vollständig zu laden Speicher.

Beispiel:

import httpx
import time

url = 'http://127.0.0.1:8000/upload'
files = {'file': open('bigFile.zip', 'rb')}
headers = {'Filename': 'bigFile.zip'}
data = {'data': 'Hello World!'}

with httpx.Client() as client:
    start = time.time()
    r = client.post(url, data=data, files=files, headers=headers)
    end = time.time()
    print(f'Time elapsed: {end - start}s')
    print(r.status_code, r.json(), sep=' ')
Nach dem Login kopieren

Lösung 2: Bibliothek „streaming_form_data“ verwenden

Diese Bibliothek stellt ein Streaming-Multipart/Formular bereit -Datenparser für Python, der es Ihnen ermöglicht, mehrteilige/Formulardatenanfragen zu analysieren, ohne den gesamten Anfragetext vollständig zu laden Erinnerung.

Beispiel:

from streaming_form_data import StreamingFormDataParser
from streaming_form_data.targets import FileTarget, ValueTarget

app = FastAPI()
MAX_REQUEST_BODY_SIZE = 1024 * 1024 * 1024 * 4  # = 4GB
MAX_FILE_SIZE = 1024 * 1024 * 1024 * 3  # = 3GB

@app.post('/upload')
async def upload(request: Request):
    
    parser = StreamingFormDataParser(headers=request.headers)
    filename = request.headers.get('Filename')
    file_ = FileTarget('./' + filename)
    data = ValueTarget()
    parser.register('file', file_)
    parser.register('data', data)
    body_validator = MaxBodySizeValidator(MAX_REQUEST_BODY_SIZE)
    file_validator = MaxSizeValidator(MAX_FILE_SIZE)
    
    async for chunk in request.stream():
        body_validator(chunk)
        parser.data_received(chunk)
Nach dem Login kopieren

Das obige ist der detaillierte Inhalt vonWie lade ich große Dateien (≥3 GB) effektiv auf ein FastAPI-Backend hoch?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage