Anda boleh memuat turun semua konfigurasi dan arahan penuh
https://www.patreon.com/posts/112099700 - Catatan Penalaan Halus
https://www.patreon.com/posts/110879657 - siaran LoRA
Kohya membawa peningkatan besar-besaran kepada latihan FLUX LoRA dan DreamBooth / Fine-Tuning (min 6GB GPU).
Kini serendah 4GB GPU boleh melatih FLUX LoRA dengan kualiti yang baik dan 24GB ke bawah GPU mendapat peningkatan kelajuan yang besar apabila melakukan latihan DreamBooth / Penalaan Halus Penuh
Anda memerlukan minimum 4GB GPU untuk melakukan latihan FLUX LoRA dan minimum 6 GB GPU untuk melakukan FLUX DreamBooth / Latihan Penalaan Halus Penuh. Ia hanya memeranjatkan.
Anda boleh memuat turun semua konfigurasi dan arahan penuh > https://www.patreon.com/posts/112099700
Siaran di atas juga mempunyai pemasang dan muat turun 1 klik untuk Windows, RunPod dan Massed Compute
Skrip pemuat turun model juga mengemas kini dan memuat turun model 30 GB mengambil masa 1 minit pada Massed Compute
Anda boleh membaca kemas kini terkini di sini : https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates
Ini ialah cawangan GUI Kohya : https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1
Perkara utama untuk mengurangkan penggunaan VRAM ialah menggunakan pertukaran blok
Kohya melaksanakan logik OneTrainer untuk meningkatkan kelajuan pertukaran blok dengan ketara dan kini ia disokong untuk LoRA juga
Kini anda boleh melakukan latihan FP16 dengan LoRA pada GPU 24 GB dan ke bawah
Kini anda boleh melatih FLUX LoRA pada GPU 4 GB - kunci ialah FP8, pertukaran blok dan menggunakan latihan lapisan tertentu (ingat latihan LoRA lapisan tunggal)
Saya mengambil masa lebih daripada 1 hari untuk menguji semua konfigurasi baharu, permintaan VRAM mereka, kelajuan langkah relatifnya dan menyediakan konfigurasi :)
Atas ialah kandungan terperinci Kohya membawa peningkatan besar kepada latihan FLUX LoRA (B GPU) dan DreamBooth / Fine-Tuning (B GPU). Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!