您可以下載所有設定和完整說明
https://www.patreon.com/posts/112099700 - 微調貼文
https://www.patreon.com/posts/110879657 - LoRA 貼文
Kohya 為 FLUX LoRA 和 DreamBooth / Fine-Tuning(最低 6GB GPU)訓練帶來了巨大的改進。
現在低至 4GB GPU 就可以以良好的品質訓練 FLUX LoRA,24GB 及以下 GPU 在進行 Full DreamBooth / Fine-Tuning 訓練時獲得了巨大的速度提升
您至少需要 4GB GPU 才能進行 FLUX LoRA 訓練,至少需要 6GB GPU 才能進行 FLUX DreamBooth / Full Fine-Tuning 訓練。真是令人興奮。
您可以下載所有設定和完整說明> https://www.patreon.com/posts/112099700
上面的貼文也提供了 Windows、RunPod 和 Massed Compute 的一鍵安裝程式和下載程式
模型下載器腳本也已更新,在 Massed Compute 上下載 30 GB 模型總共需要 1 分鐘
您可以在這裡閱讀最近的更新:https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates
這是 Kohya GUI 分支:https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1
減少 VRAM 使用的關鍵是使用區塊交換
Kohya 實現了 OneTrainer 的邏輯,顯著提高了塊交換速度,現在也支援 LoRA
現在您可以在 24 GB 及以下 GPU 上使用 LoRA 進行 FP16 訓練
現在您可以在 4 GB GPU 上訓練 FLUX LoRA - 關鍵是 FP8、區塊交換和使用某些層訓練(記住單層 LoRA 訓練)
我花了 1 天多的時間來測試所有較新的配置、它們的 VRAM 需求、它們的相對步進速度並準備配置:)
以上是Kohya 為 FLUX LoRA (B GPU) 和 DreamBooth / Fine-Tuning (B GPU) 訓練帶來了巨大改進的詳細內容。更多資訊請關注PHP中文網其他相關文章!