Rumah > pembangunan bahagian belakang > Tutorial Python > Kohya membawa peningkatan besar kepada latihan FLUX LoRA (B GPU) dan DreamBooth / Fine-Tuning (B GPU)

Kohya membawa peningkatan besar kepada latihan FLUX LoRA (B GPU) dan DreamBooth / Fine-Tuning (B GPU)

Patricia Arquette
Lepaskan: 2024-11-21 08:57:09
asal
561 orang telah melayarinya

Anda boleh memuat turun semua konfigurasi dan arahan penuh

https://www.patreon.com/posts/112099700 - Catatan Penalaan Halus

https://www.patreon.com/posts/110879657 - siaran LoRA

Kohya membawa peningkatan besar-besaran kepada latihan FLUX LoRA dan DreamBooth / Fine-Tuning (min 6GB GPU).

Kini serendah 4GB GPU boleh melatih FLUX LoRA dengan kualiti yang baik dan 24GB ke bawah GPU mendapat peningkatan kelajuan yang besar apabila melakukan latihan DreamBooth / Penalaan Halus Penuh

Anda memerlukan minimum 4GB GPU untuk melakukan latihan FLUX LoRA dan minimum 6 GB GPU untuk melakukan FLUX DreamBooth / Latihan Penalaan Halus Penuh. Ia hanya memeranjatkan.

Anda boleh memuat turun semua konfigurasi dan arahan penuh > https://www.patreon.com/posts/112099700

Siaran di atas juga mempunyai pemasang dan muat turun 1 klik untuk Windows, RunPod dan Massed Compute

Skrip pemuat turun model juga mengemas kini dan memuat turun model 30 GB mengambil masa 1 minit pada Massed Compute

Anda boleh membaca kemas kini terkini di sini : https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates

Ini ialah cawangan GUI Kohya : https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1

Perkara utama untuk mengurangkan penggunaan VRAM ialah menggunakan pertukaran blok

Kohya melaksanakan logik OneTrainer untuk meningkatkan kelajuan pertukaran blok dengan ketara dan kini ia disokong untuk LoRA juga

Kini anda boleh melakukan latihan FP16 dengan LoRA pada GPU 24 GB dan ke bawah

Kini anda boleh melatih FLUX LoRA pada GPU 4 GB - kunci ialah FP8, pertukaran blok dan menggunakan latihan lapisan tertentu (ingat latihan LoRA lapisan tunggal)

Saya mengambil masa lebih daripada 1 hari untuk menguji semua konfigurasi baharu, permintaan VRAM mereka, kelajuan langkah relatifnya dan menyediakan konfigurasi :)

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Atas ialah kandungan terperinci Kohya membawa peningkatan besar kepada latihan FLUX LoRA (B GPU) dan DreamBooth / Fine-Tuning (B GPU). Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:dev.to
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan