Maison > développement back-end > Tutoriel Python > Kohya a apporté des améliorations massives aux formations FLUX LoRA (GPU B) et DreamBooth / Fine-Tuning (GPU B)

Kohya a apporté des améliorations massives aux formations FLUX LoRA (GPU B) et DreamBooth / Fine-Tuning (GPU B)

Patricia Arquette
Libérer: 2024-11-21 08:57:09
original
653 Les gens l'ont consulté

Vous pouvez télécharger toutes les configurations et instructions complètes

https://www.patreon.com/posts/112099700 - Article de réglage fin

https://www.patreon.com/posts/110879657 - Post LoRA

Kohya a apporté des améliorations massives à la formation FLUX LoRA et DreamBooth / Fine-Tuning (min 6 Go GPU).

Désormais, des GPU d'à peine 4 Go peuvent entraîner FLUX LoRA avec une qualité décente et les GPU de 24 Go et moins bénéficient d'une énorme augmentation de vitesse lors de la formation Full DreamBooth / Fine-Tuning

Vous avez besoin d'un minimum de 4 Go de GPU pour effectuer une formation FLUX LoRA et d'un minimum de 6 Go de GPU pour effectuer une formation FLUX DreamBooth / Full Fine-Tuning. C'est tout simplement époustouflant.

Vous pouvez télécharger toutes les configurations et instructions complètes > https://www.patreon.com/posts/112099700

L'article ci-dessus propose également des installateurs et des téléchargeurs en 1 clic pour Windows, RunPod et Massed Compute

Les scripts de téléchargement de modèles ont également été mis à jour et le téléchargement de modèles de 30 Go prend au total 1 minute sur Massed Compute

Vous pouvez lire les mises à jour récentes ici : https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates

Voici la branche GUI de Kohya : https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1

L'élément clé pour réduire l'utilisation de la VRAM est d'utiliser l'échange de blocs

Kohya a implémenté la logique de OneTrainer pour améliorer considérablement la vitesse d'échange de blocs et elle est désormais également prise en charge pour les LoRA

Vous pouvez désormais suivre une formation FP16 avec des LoRA sur des GPU de 24 Go et moins

Vous pouvez désormais entraîner un FLUX LoRA sur un GPU de 4 Go - la clé est FP8, l'échange de blocs et l'utilisation de certaines couches d'entraînement (rappelez-vous l'entraînement LoRA monocouche)

Il m'a fallu plus d'une journée pour tester toutes les nouvelles configurations, leurs demandes de VRAM, leurs vitesses de pas relatives et préparer les configurations :)

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal