Vous pouvez télécharger toutes les configurations et instructions complètes
https://www.patreon.com/posts/112099700 - Article de réglage fin
https://www.patreon.com/posts/110879657 - Post LoRA
Kohya a apporté des améliorations massives à la formation FLUX LoRA et DreamBooth / Fine-Tuning (min 6 Go GPU).
Désormais, des GPU d'à peine 4 Go peuvent entraîner FLUX LoRA avec une qualité décente et les GPU de 24 Go et moins bénéficient d'une énorme augmentation de vitesse lors de la formation Full DreamBooth / Fine-Tuning
Vous avez besoin d'un minimum de 4 Go de GPU pour effectuer une formation FLUX LoRA et d'un minimum de 6 Go de GPU pour effectuer une formation FLUX DreamBooth / Full Fine-Tuning. C'est tout simplement époustouflant.
Vous pouvez télécharger toutes les configurations et instructions complètes > https://www.patreon.com/posts/112099700
L'article ci-dessus propose également des installateurs et des téléchargeurs en 1 clic pour Windows, RunPod et Massed Compute
Les scripts de téléchargement de modèles ont également été mis à jour et le téléchargement de modèles de 30 Go prend au total 1 minute sur Massed Compute
Vous pouvez lire les mises à jour récentes ici : https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates
Voici la branche GUI de Kohya : https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1
L'élément clé pour réduire l'utilisation de la VRAM est d'utiliser l'échange de blocs
Kohya a implémenté la logique de OneTrainer pour améliorer considérablement la vitesse d'échange de blocs et elle est désormais également prise en charge pour les LoRA
Vous pouvez désormais suivre une formation FP16 avec des LoRA sur des GPU de 24 Go et moins
Vous pouvez désormais entraîner un FLUX LoRA sur un GPU de 4 Go - la clé est FP8, l'échange de blocs et l'utilisation de certaines couches d'entraînement (rappelez-vous l'entraînement LoRA monocouche)
Il m'a fallu plus d'une journée pour tester toutes les nouvelles configurations, leurs demandes de VRAM, leurs vitesses de pas relatives et préparer les configurations :)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!