ホームページ > バックエンド開発 > Python チュートリアル > Kohya は、FLUX LoRA (B GPU) および DreamBooth / Fine-Tuning (B GPU) トレーニングに大幅な改善をもたらしました。

Kohya は、FLUX LoRA (B GPU) および DreamBooth / Fine-Tuning (B GPU) トレーニングに大幅な改善をもたらしました。

Patricia Arquette
リリース: 2024-11-21 08:57:09
オリジナル
561 人が閲覧しました

すべての構成と完全な手順をダウンロードできます

https://www.patreon.com/posts/112099700 - 微調整の投稿

https://www.patreon.com/posts/110879657 - LoRA 投稿

Kohya は、FLUX LoRA と DreamBooth / Fine-Tuning (最小 6GB GPU) トレーニングに大幅な改善をもたらしました。

4GB 程度の GPU で FLUX LoRA を適切な品質でトレーニングできるようになり、24GB 以下の GPU ではフル DreamBooth / 微調整トレーニングを実行する際の速度が大幅に向上しました

FLUX LoRA トレーニングを行うには最低 4GB GPU、FLUX DreamBooth / Full Fine-Tuning トレーニングを行うには最低 6 GB GPU が必要です。それはまさに驚くべきことです。

すべての構成と完全な手順をダウンロードできます> https://www.patreon.com/posts/112099700

上記の投稿には、Windows、RunPod、および Massed Compute 用の 1 クリック インストーラーとダウンローダーも含まれています

モデル ダウンローダー スクリプトも更新され、30 GB モデルのダウンロードにはマスド コンピューティングで合計 1 分かかります

ここで最近の更新を読むことができます: https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates

これは Kohya GUI ブランチです: https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1

VRAM の使用量を減らすための重要な点は、ブロック スワップを使用することです

Kohya は、ブロック スワッピング速度を大幅に向上させるために OneTrainer のロジックを実装し、LoRA でもサポートされるようになりました

24 GB 以下の GPU で LoRA を使用して FP16 トレーニングを実行できるようになりました

これで、4 GB GPU で FLUX LoRA をトレーニングできるようになりました - キーは FP8、ブロック スワップ、および特定のレイヤー トレーニングの使用 (単一レイヤー LoRA トレーニングを思い出してください)

すべての新しい構成、VRAM 要求、相対的なステップ速度をテストし、構成を準備するのに 1 日以上かかりました :)

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

以上がKohya は、FLUX LoRA (B GPU) および DreamBooth / Fine-Tuning (B GPU) トレーニングに大幅な改善をもたらしました。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:dev.to
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート