Vous avez toujours voulu déployer un modèle Hugging Face sur AWS Lambda, mais vous êtes resté coincé avec la construction de conteneurs, les démarrages à froid et la mise en cache des modèles ? Voici comment le faire en moins de 5 minutes avec Scaffoldly.
Créez un système de fichiers EFS nommé .cache dans AWS :
Créez votre application à partir de la branche python-huggingface :
npx scaffoldly create app --template python-huggingface
Déployez-le :
cd my-app && npx scaffoldly deploy
C'est ça ! Vous obtiendrez un modèle Hugging Face exécuté sur Lambda (en utilisant openai-community/gpt2 comme exemple), avec une mise en cache et un déploiement de conteneurs appropriés.
Conseil de pro : Pour la configuration EFS, vous pouvez la personnaliser jusqu'à un seul AZ en mode Burstable pour encore plus d'économies. Scaffoldly fera correspondre la fonction Lambda au VPC, aux sous-réseaux et au groupe de sécurité de l'EFS.
✨ Découvrez la démo en direct et l'exemple de code !
Le déploiement de modèles ML sur AWS Lambda implique traditionnellement :
C'est beaucoup de travail d'infrastructure quand on veut juste servir un modèle !
Scaffoldly gère toute cette complexité avec un simple fichier de configuration. Voici une application complète qui sert un modèle Hugging Face (en utilisant openai-community/gpt2 comme exemple) :
# app.py from flask import Flask from transformers import pipeline app = Flask(__name__) generator = pipeline('text-generation', model='openai-community/gpt2') @app.route("/") def hello_world(): output = generator("Hello, world,") return output[0]['generated_text']
// requirements.txt Flask ~= 3.0 gunicorn ~= 23.0 torch ~= 2.5 numpy ~= 2.1 transformers ~= 4.46 huggingface_hub[cli] ~= 0.26
// scaffoldly.json { "name": "python-huggingface", "runtime": "python:3.12", "handler": "localhost:8000", "files": ["app.py"], "packages": ["pip:requirements.txt"], "resources": ["arn::elasticfilesystem:::file-system/.cache"], "schedules": { "@immediately": "huggingface-cli download openai-community/gpt2" }, "scripts": { "start": "gunicorn app:app" }, "memorySize": 1024 }
Scaffoldly fait des choses intelligentes dans les coulisses :
Construction de conteneurs intelligents :
Gestion efficace des modèles :
Configuration prête pour Lambda :
Voici le résultat d'une commande npx scaffoldly déployer que j'ai exécutée sur cet exemple :
✅ Coûts : ~0,20 $/jour pour AWS Lambda, ECR et EFS
✅ Démarrage à froid : ~20s pour première demande (chargement du modèle)
✅ Demandes chaleureuses : 5 à 20 s (inférence basée sur le CPU)
Bien que cette configuration utilise l'inférence CPU (qui est plus lente que le GPU), il s'agit d'un moyen incroyablement rentable d'expérimenter des modèles ML ou de servir des points de terminaison à faible trafic.
Vous souhaitez utiliser un modèle différent ? Mettez simplement à jour deux fichiers :
npx scaffoldly create app --template python-huggingface
cd my-app && npx scaffoldly deploy
Scaffoldly prend en charge les modèles privés et fermés via la variable d'environnement HF_TOKEN. Vous pouvez ajouter votre jeton Hugging Face de plusieurs manières :
# app.py from flask import Flask from transformers import pipeline app = Flask(__name__) generator = pipeline('text-generation', model='openai-community/gpt2') @app.route("/") def hello_world(): output = generator("Hello, world,") return output[0]['generated_text']
// requirements.txt Flask ~= 3.0 gunicorn ~= 23.0 torch ~= 2.5 numpy ~= 2.1 transformers ~= 4.46 huggingface_hub[cli] ~= 0.26
Le jeton sera automatiquement utilisé pour télécharger et accéder à vos modèles privés ou sécurisés.
Scaffoldly génère même une action GitHub pour les déploiements automatisés :
// scaffoldly.json { "name": "python-huggingface", "runtime": "python:3.12", "handler": "localhost:8000", "files": ["app.py"], "packages": ["pip:requirements.txt"], "resources": ["arn::elasticfilesystem:::file-system/.cache"], "schedules": { "@immediately": "huggingface-cli download openai-community/gpt2" }, "scripts": { "start": "gunicorn app:app" }, "memorySize": 1024 }
L'exemple complet est disponible sur GitHub :
échafaudage/exemples d'échafaudage#python-huggingface
Et vous pouvez créer votre propre copie de cet exemple en exécutant :
generator = pipeline('text-generation', model='your-model-here')
Vous pouvez le voir fonctionner en direct (bien que les réponses puissent être lentes en raison de l'inférence du processeur) :
Démo en direct
Scaffoldly est Open Source et les contributions de la communauté sont les bienvenues.
Quels autres modèles souhaitez-vous exécuter dans AWS Lambda ? Faites-le moi savoir dans les commentaires !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!