Wollten Sie schon immer ein Hugging Face-Modell in AWS Lambda bereitstellen, sind aber mit Container-Builds, Kaltstarts und Modell-Caching nicht weitergekommen? So geht's mit Scaffoldly in weniger als 5 Minuten.
Erstellen Sie in AWS ein EFS-Dateisystem mit dem Namen .cache:
Erstellen Sie Ihre App aus dem Zweig „python-huggingface“:
npx scaffoldly create app --template python-huggingface
Stellen Sie es bereit:
cd my-app && npx scaffoldly deploy
Das ist es! Sie erhalten ein Hugging Face-Modell, das auf Lambda läuft (am Beispiel von openai-community/gpt2), komplett mit ordnungsgemäßem Caching und Container-Bereitstellung.
Profi-Tipp: Für noch mehr Kosteneinsparungen können Sie das EFS-Setup auf eine einzelne AZ im Burstable-Modus anpassen. Scaffoldly ordnet die Lambda-Funktion der VPC, den Subnetzen und der Sicherheitsgruppe des EFS zu.
✨ Schauen Sie sich die Live-Demo und den Beispielcode an!
Die Bereitstellung von ML-Modellen für AWS Lambda umfasst traditionell Folgendes:
Es ist eine Menge Infrastrukturarbeit, wenn man nur einem Model dienen möchte!
Scaffoldly bewältigt all diese Komplexität mit einer einfachen Konfigurationsdatei. Hier ist eine vollständige Anwendung, die ein Hugging Face-Modell bedient (am Beispiel von openai-community/gpt2):
# app.py from flask import Flask from transformers import pipeline app = Flask(__name__) generator = pipeline('text-generation', model='openai-community/gpt2') @app.route("/") def hello_world(): output = generator("Hello, world,") return output[0]['generated_text']
// requirements.txt Flask ~= 3.0 gunicorn ~= 23.0 torch ~= 2.5 numpy ~= 2.1 transformers ~= 4.46 huggingface_hub[cli] ~= 0.26
// scaffoldly.json { "name": "python-huggingface", "runtime": "python:3.12", "handler": "localhost:8000", "files": ["app.py"], "packages": ["pip:requirements.txt"], "resources": ["arn::elasticfilesystem:::file-system/.cache"], "schedules": { "@immediately": "huggingface-cli download openai-community/gpt2" }, "scripts": { "start": "gunicorn app:app" }, "memorySize": 1024 }
Scaffoldly macht hinter den Kulissen einige clevere Dinge:
Intelligenter Containerbau:
Effiziente Modellverwaltung:
Lambda-Ready-Setup:
Hier ist die Ausgabe eines Npx-Scaffoldly-Deploy-Befehls, den ich in diesem Beispiel ausgeführt habe:
✅ Kosten: ~0,20 $/Tag für AWS Lambda, ECR und EFS
✅ Kaltstart: ~20 Sekunden für die erste Anforderung (Modellladen)
✅ Warme Anfragen: 5–20 Sekunden (CPU-basierte Inferenz)
Während dieses Setup CPU-Inferenz verwendet (die langsamer als die GPU ist), ist es eine unglaublich kostengünstige Möglichkeit, mit ML-Modellen zu experimentieren oder Endpunkte mit geringem Datenverkehr zu bedienen.
Möchten Sie ein anderes Modell verwenden? Aktualisieren Sie einfach zwei Dateien:
npx scaffoldly create app --template python-huggingface
cd my-app && npx scaffoldly deploy
Scaffoldly unterstützt private und Gated-Modelle über die Umgebungsvariable HF_TOKEN. Sie können Ihren Hugging Face-Token auf verschiedene Arten hinzufügen:
# app.py from flask import Flask from transformers import pipeline app = Flask(__name__) generator = pipeline('text-generation', model='openai-community/gpt2') @app.route("/") def hello_world(): output = generator("Hello, world,") return output[0]['generated_text']
// requirements.txt Flask ~= 3.0 gunicorn ~= 23.0 torch ~= 2.5 numpy ~= 2.1 transformers ~= 4.46 huggingface_hub[cli] ~= 0.26
Der Token wird automatisch sowohl zum Herunterladen als auch zum Zugreifen auf Ihre privaten oder geschlossenen Modelle verwendet.
Scaffoldly generiert sogar eine GitHub-Aktion für automatisierte Bereitstellungen:
// scaffoldly.json { "name": "python-huggingface", "runtime": "python:3.12", "handler": "localhost:8000", "files": ["app.py"], "packages": ["pip:requirements.txt"], "resources": ["arn::elasticfilesystem:::file-system/.cache"], "schedules": { "@immediately": "huggingface-cli download openai-community/gpt2" }, "scripts": { "start": "gunicorn app:app" }, "memorySize": 1024 }
Das vollständige Beispiel ist auf GitHub verfügbar:
scaffoldly/scaffoldly-examples#python-huggingface
Und Sie können Ihre eigene Kopie dieses Beispiels erstellen, indem Sie Folgendes ausführen:
generator = pipeline('text-generation', model='your-model-here')
Sie können sehen, wie es live läuft (obwohl die Antworten aufgrund von CPU-Rückschlüssen langsam sein können):
Live-Demo
Scaffoldly ist Open Source und willkommene Beiträge aus der Community.
Welche anderen Modelle möchten Sie in AWS Lambda ausführen? Lass es mich in den Kommentaren wissen!
Das obige ist der detaillierte Inhalt vonStellen Sie Hugging Face-Modelle in Schritten für AWS Lambda bereit. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!