すべての構成と完全な手順をダウンロードできます
https://www.patreon.com/posts/112099700 - 微調整の投稿
https://www.patreon.com/posts/110879657 - LoRA 投稿
Kohya は、FLUX LoRA と DreamBooth / Fine-Tuning (最小 6GB GPU) トレーニングに大幅な改善をもたらしました。
4GB 程度の GPU で FLUX LoRA を適切な品質でトレーニングできるようになり、24GB 以下の GPU ではフル DreamBooth / 微調整トレーニングを実行する際の速度が大幅に向上しました
FLUX LoRA トレーニングを行うには最低 4GB GPU、FLUX DreamBooth / Full Fine-Tuning トレーニングを行うには最低 6 GB GPU が必要です。それはまさに驚くべきことです。
すべての構成と完全な手順をダウンロードできます> https://www.patreon.com/posts/112099700
上記の投稿には、Windows、RunPod、および Massed Compute 用の 1 クリック インストーラーとダウンローダーも含まれています
モデル ダウンローダー スクリプトも更新され、30 GB モデルのダウンロードにはマスド コンピューティングで合計 1 分かかります
ここで最近の更新を読むことができます: https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates
これは Kohya GUI ブランチです: https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1
VRAM の使用量を減らすための重要な点は、ブロック スワップを使用することです
Kohya は、ブロック スワッピング速度を大幅に向上させるために OneTrainer のロジックを実装し、LoRA でもサポートされるようになりました
24 GB 以下の GPU で LoRA を使用して FP16 トレーニングを実行できるようになりました
これで、4 GB GPU で FLUX LoRA をトレーニングできるようになりました - キーは FP8、ブロック スワップ、および特定のレイヤー トレーニングの使用 (単一レイヤー LoRA トレーニングを思い出してください)
すべての新しい構成、VRAM 要求、相対的なステップ速度をテストし、構成を準備するのに 1 日以上かかりました :)
以上がKohya は、FLUX LoRA (B GPU) および DreamBooth / Fine-Tuning (B GPU) トレーニングに大幅な改善をもたらしました。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。