Kohya 為 FLUX LoRA (B GPU) 和 DreamBooth / Fine-Tuning (B GPU) 訓練帶來了巨大改進

Patricia Arquette
發布: 2024-11-21 08:57:09
原創
512 人瀏覽過

您可以下載所有設定和完整說明

https://www.patreon.com/posts/112099700 - 微調貼文

https://www.patreon.com/posts/110879657 - LoRA 貼文

Kohya 為 FLUX LoRA 和 DreamBooth / Fine-Tuning(最低 6GB GPU)訓練帶來了巨大的改進。

現在低至 4GB GPU 就可以以良好的品質訓練 FLUX LoRA,24GB 及以下 GPU 在進行 Full DreamBooth / Fine-Tuning 訓練時獲得了巨大的速度提升

您至少需要 4GB GPU 才能進行 FLUX LoRA 訓練,至少需要 6GB GPU 才能進行 FLUX DreamBooth / Full Fine-Tuning 訓練。真是令人興奮。

您可以下載所有設定和完整說明> https://www.patreon.com/posts/112099700

上面的貼文也提供了 Windows、RunPod 和 Massed Compute 的一鍵安裝程式和下載程式

模型下載器腳本也已更新,在 Massed Compute 上下載 30 GB 模型總共需要 1 分鐘

您可以在這裡閱讀最近的更新:https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates

這是 Kohya GUI 分支:https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1

減少 VRAM 使用的關鍵是使用區塊交換

Kohya 實現了 OneTrainer 的邏輯,顯著提高了塊交換速度,現在也支援 LoRA

現在您可以在 24 GB 及以下 GPU 上使用 LoRA 進行 FP16 訓練

現在您可以在 4 GB GPU 上訓練 FLUX LoRA - 關鍵是 FP8、區塊交換和使用某些層訓練(記住單層 LoRA 訓練)

我花了 1 天多的時間來測試所有較新的配置、它們的 VRAM 需求、它們的相對步進速度並準備配置:)

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

以上是Kohya 為 FLUX LoRA (B GPU) 和 DreamBooth / Fine-Tuning (B GPU) 訓練帶來了巨大改進的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:dev.to
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板