stable-diffusion-3.5-large-turbo est un modèle texte-image de haute précision.
Ce guide expliquera comment configurer et exécuter le modèle sur Google Colab.
Visitez Huggingface.
Pour utiliser stable-diffusion-3.5-large-turbo, vous avez besoin d'un compte Huggingface.
Si vous n'en avez pas déjà un, veuillez créer un compte.
Une fois inscrit, vous verrez l'écran suivant :
Entrez les informations requises et vous aurez immédiatement accès au modèle.
Si vous souhaitez télécharger et utiliser le modèle, vous aurez besoin d'un jeton d'accès. Créez-en un depuis la page de votre compte :
Accédez à la page de votre compte via l'icône de profil dans le coin supérieur droit, accédez à l'onglet Jeton d'accès et créez un jeton en sélectionnant Créer un nouveau jeton.
Tout d'abord, installez les bibliothèques nécessaires dans Google Colab :
!pip install --quiet -U transformers
L'option -U met à jour la bibliothèque vers sa dernière version et --quiet supprime les messages de téléchargement.
Authentifiez votre compte Huggingface en exécutant la commande suivante et en saisissant le jeton que vous avez créé précédemment :
!huggingface-cli login
Chargez et configurez le modèle à l'aide du code Python suivant :
import torch from diffusers import StableDiffusion3Pipeline pipe = StableDiffusion3Pipeline.from_pretrained("stabilityai/stable-diffusion-3.5-large-turbo", torch_dtype=torch.bfloat16) pipe = pipe.to("cuda")
Remarque : Le modèle consomme environ 27 Go de mémoire.
Testez la configuration en exécutant ce code pour générer une image :
prompt = "A capybara holding a sign that reads Hello Fast World" save_filename = "capybara.png" image = pipe( prompt, num_inference_steps=4, guidance_scale=0.0, ).images[0]
Vous pouvez trouver des explications sur ces arguments dans la documentation GitHub de Diffusers.
Enregistrez et affichez l'image générée :
image.save(save_filename) image
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!