Maison > développement back-end > Tutoriel Python > Déployez des modèles de visages câlins sur AWS Lambda en quelques étapes

Déployez des modèles de visages câlins sur AWS Lambda en quelques étapes

Linda Hamilton
Libérer: 2024-11-29 21:24:11
original
732 Les gens l'ont consulté

Vous avez toujours voulu déployer un modèle Hugging Face sur AWS Lambda, mais vous êtes resté coincé avec la construction de conteneurs, les démarrages à froid et la mise en cache des modèles ? Voici comment le faire en moins de 5 minutes avec Scaffoldly.

TL;DR

  1. Créez un système de fichiers EFS nommé .cache dans AWS :

    • Accédez à la console AWS EFS
    • Cliquez sur "Créer un système de fichiers"
    • Nommez-le .cache
    • Sélectionnez n'importe quel VPC (Scaffoldly s'occupera du reste !)
  2. Créez votre application à partir de la branche python-huggingface :

     npx scaffoldly create app --template python-huggingface
    
    Copier après la connexion
    Copier après la connexion
  3. Déployez-le :

     cd my-app && npx scaffoldly deploy
    
    Copier après la connexion
    Copier après la connexion

C'est ça ! Vous obtiendrez un modèle Hugging Face exécuté sur Lambda (en utilisant openai-community/gpt2 comme exemple), avec une mise en cache et un déploiement de conteneurs appropriés.

Conseil de pro : Pour la configuration EFS, vous pouvez la personnaliser jusqu'à un seul AZ en mode Burstable pour encore plus d'économies. Scaffoldly fera correspondre la fonction Lambda au VPC, aux sous-réseaux et au groupe de sécurité de l'EFS.

✨ Découvrez la démo en direct et l'exemple de code !

Le problème

Le déploiement de modèles ML sur AWS Lambda implique traditionnellement :

  • Création et gestion de conteneurs Docker
  • Déterminer la mise en cache et le stockage des modèles
  • Gérer les limites de taille de Lambda
  • Gestion des démarrages à froid
  • Configuration des points de terminaison de l'API

C'est beaucoup de travail d'infrastructure quand on veut juste servir un modèle !

La solution

Scaffoldly gère toute cette complexité avec un simple fichier de configuration. Voici une application complète qui sert un modèle Hugging Face (en utilisant openai-community/gpt2 comme exemple) :

# app.py
from flask import Flask
from transformers import pipeline
app = Flask(__name__)
generator = pipeline('text-generation', model='openai-community/gpt2')
@app.route("/")
def hello_world():
    output = generator("Hello, world,")
    return output[0]['generated_text']
Copier après la connexion
Copier après la connexion
// requirements.txt
Flask ~= 3.0
gunicorn ~= 23.0
torch ~= 2.5
numpy ~= 2.1
transformers ~= 4.46
huggingface_hub[cli] ~= 0.26
Copier après la connexion
Copier après la connexion
// scaffoldly.json
{
  "name": "python-huggingface",
  "runtime": "python:3.12",
  "handler": "localhost:8000",
  "files": ["app.py"],
  "packages": ["pip:requirements.txt"],
  "resources": ["arn::elasticfilesystem:::file-system/.cache"],
  "schedules": {
    "@immediately": "huggingface-cli download openai-community/gpt2"
  },
  "scripts": {
    "start": "gunicorn app:app"
  },
  "memorySize": 1024
}
Copier après la connexion
Copier après la connexion

Comment ça marche

Scaffoldly fait des choses intelligentes dans les coulisses :

  1. Construction de conteneurs intelligents :

    • Crée automatiquement un conteneur Docker optimisé pour Lambda
    • Gère toutes les dépendances Python, y compris PyTorch
    • Pousse vers ECR sans que vous écriviez de commandes Docker
  2. Gestion efficace des modèles :

    • Utilise Amazon EFS pour mettre en cache les fichiers de modèle
    • Pré-télécharge les modèles après le déploiement pour des démarrages à froid plus rapides
    • Monte automatiquement le cache dans Lambda
  3. Configuration prête pour Lambda :

    • Rus up un bon serveur WSGI (gunicorn)
    • Crée une URL de fonction Lambda publique
    • Demandes d'URL de fonction proxy à gunicorn
    • Gère les rôles et les autorisations IAM

À quoi ressemble le déploiement

Voici le résultat d'une commande npx scaffoldly déployer que j'ai exécutée sur cet exemple :

Deploy Hugging Face Models to AWS Lambda in teps

Performances et coûts réels

Coûts : ~0,20 $/jour pour AWS Lambda, ECR et EFS

Démarrage à froid : ~20s pour première demande (chargement du modèle)

Demandes chaleureuses : 5 à 20 s (inférence basée sur le CPU)

Bien que cette configuration utilise l'inférence CPU (qui est plus lente que le GPU), il s'agit d'un moyen incroyablement rentable d'expérimenter des modèles ML ou de servir des points de terminaison à faible trafic.

Personnalisation pour d'autres modèles

Vous souhaitez utiliser un modèle différent ? Mettez simplement à jour deux fichiers :

  1. Changez le modèle dans app.py :
 npx scaffoldly create app --template python-huggingface
Copier après la connexion
Copier après la connexion
  1. Mettez à jour le téléchargement dans scaffoldly.json :
 cd my-app && npx scaffoldly deploy
Copier après la connexion
Copier après la connexion

Utilisation de modèles privés ou fermés

Scaffoldly prend en charge les modèles privés et fermés via la variable d'environnement HF_TOKEN. Vous pouvez ajouter votre jeton Hugging Face de plusieurs manières :

  • Développement local : Ajoutez à votre profil shell (.bashrc, .zprofile, etc.) :
# app.py
from flask import Flask
from transformers import pipeline
app = Flask(__name__)
generator = pipeline('text-generation', model='openai-community/gpt2')
@app.route("/")
def hello_world():
    output = generator("Hello, world,")
    return output[0]['generated_text']
Copier après la connexion
Copier après la connexion
  • CI/CD : ajouter comme secret d'actions GitHub :
// requirements.txt
Flask ~= 3.0
gunicorn ~= 23.0
torch ~= 2.5
numpy ~= 2.1
transformers ~= 4.46
huggingface_hub[cli] ~= 0.26
Copier après la connexion
Copier après la connexion

Le jeton sera automatiquement utilisé pour télécharger et accéder à vos modèles privés ou sécurisés.

Bonus CI/CD

Scaffoldly génère même une action GitHub pour les déploiements automatisés :

// scaffoldly.json
{
  "name": "python-huggingface",
  "runtime": "python:3.12",
  "handler": "localhost:8000",
  "files": ["app.py"],
  "packages": ["pip:requirements.txt"],
  "resources": ["arn::elasticfilesystem:::file-system/.cache"],
  "schedules": {
    "@immediately": "huggingface-cli download openai-community/gpt2"
  },
  "scripts": {
    "start": "gunicorn app:app"
  },
  "memorySize": 1024
}
Copier après la connexion
Copier après la connexion

Essayez-le vous-même

L'exemple complet est disponible sur GitHub :
échafaudage/exemples d'échafaudage#python-huggingface

Et vous pouvez créer votre propre copie de cet exemple en exécutant :

generator = pipeline('text-generation', model='your-model-here')
Copier après la connexion

Vous pouvez le voir fonctionner en direct (bien que les réponses puissent être lentes en raison de l'inférence du processeur) :
Démo en direct

Quelle est la prochaine étape ?

  • Essayez de déployer différents modèles Hugging Face
  • Rejoignez la communauté Scaffoldly sur Discord
  • Découvrez d'autres exemples
  • Startez nos dépôts si vous avez trouvé cela utile !
    • La chaîne d'outils d'échafaudage
    • Le référentiel d'exemples Scaffoldly

Licences

Scaffoldly est Open Source et les contributions de la communauté sont les bienvenues.

  • Les exemples sont sous licence Apache-2.0.
  • La chaîne d'outils d'échafaudage est sous licence FSL-1.1-Apache-2.0.

Quels autres modèles souhaitez-vous exécuter dans AWS Lambda ? Faites-le moi savoir dans les commentaires !

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:dev.to
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal