Maison > développement back-end > Tutoriel Python > Comment exécuter une diffusion stable - un grand turbo sur Google Colab

Comment exécuter une diffusion stable - un grand turbo sur Google Colab

Patricia Arquette
Libérer: 2024-12-09 21:01:13
original
268 Les gens l'ont consulté

stable-diffusion-3.5-large-turbo est un modèle texte-image de haute précision.

Ce guide expliquera comment configurer et exécuter le modèle sur Google Colab.


Conditions préalables

Visitez Huggingface.

How to Run stable-diffusion--large-turbo on Google Colab

Pour utiliser stable-diffusion-3.5-large-turbo, vous avez besoin d'un compte Huggingface.

Si vous n'en avez pas déjà un, veuillez créer un compte.

Une fois inscrit, vous verrez l'écran suivant :

How to Run stable-diffusion--large-turbo on Google Colab

Entrez les informations requises et vous aurez immédiatement accès au modèle.

Si vous souhaitez télécharger et utiliser le modèle, vous aurez besoin d'un jeton d'accès. Créez-en un depuis la page de votre compte :

How to Run stable-diffusion--large-turbo on Google Colab

Accédez à la page de votre compte via l'icône de profil dans le coin supérieur droit, accédez à l'onglet Jeton d'accès et créez un jeton en sélectionnant Créer un nouveau jeton.


Exécuter le code

Installer les bibliothèques requises

Tout d'abord, installez les bibliothèques nécessaires dans Google Colab :

!pip install --quiet -U transformers
Copier après la connexion

L'option -U met à jour la bibliothèque vers sa dernière version et --quiet supprime les messages de téléchargement.

Authentifiez votre compte

Authentifiez votre compte Huggingface en exécutant la commande suivante et en saisissant le jeton que vous avez créé précédemment :

!huggingface-cli login
Copier après la connexion

Téléchargez le modèle

Chargez et configurez le modèle à l'aide du code Python suivant :

import torch
from diffusers import StableDiffusion3Pipeline

pipe = StableDiffusion3Pipeline.from_pretrained("stabilityai/stable-diffusion-3.5-large-turbo", torch_dtype=torch.bfloat16)
pipe = pipe.to("cuda")
Copier après la connexion

Remarque : Le modèle consomme environ 27 Go de mémoire.


Générer une image

Testez la configuration en exécutant ce code pour générer une image :

prompt = "A capybara holding a sign that reads Hello Fast World"
save_filename = "capybara.png"
image = pipe(
    prompt,
    num_inference_steps=4,
    guidance_scale=0.0,
).images[0]
Copier après la connexion

Vous pouvez trouver des explications sur ces arguments dans la documentation GitHub de Diffusers.

Enregistrez et affichez l'image générée :

image.save(save_filename)
image
Copier après la connexion

How to Run stable-diffusion--large-turbo on Google Colab

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:dev.to
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal