모든 구성과 전체 지침을 다운로드할 수 있습니다
https://www.patreon.com/posts/112099700 - 미세 조정 게시물
https://www.patreon.com/posts/110879657 - LoRA 포스트
Kohya는 FLUX LoRA 및 DreamBooth/Fine-Tuning(최소 6GB GPU) 교육을 대폭 개선했습니다.
이제 4GB GPU만으로도 적절한 품질로 FLUX LoRA를 훈련할 수 있으며, 24GB 이하 GPU는 Full DreamBooth/Fine-Tuning 훈련을 수행할 때 속도가 크게 향상됩니다.
FLUX LoRA 교육을 수행하려면 최소 4GB GPU가 필요하고 FLUX DreamBooth/Full Fine-Tuning 교육을 수행하려면 최소 6GB GPU가 필요합니다. 정말 감동적이네요.
모든 구성과 전체 지침을 다운로드할 수 있습니다. > https://www.patreon.com/posts/112099700
위 게시물에는 Windows, RunPod 및 Massed Compute용 원클릭 설치 프로그램과 다운로더도 있습니다
모델 다운로더 스크립트도 업데이트되었으며 대량 컴퓨팅에서 30GB 모델을 다운로드하는 데 총 1분이 소요됩니다
여기에서 최근 업데이트를 읽을 수 있습니다: https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates
Kohya GUI 지점입니다: https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1
VRAM 사용량을 줄이는 핵심은 블록 스왑을 활용하는 것입니다
Kohya는 블록 교환 속도를 크게 향상시키기 위해 OneTrainer의 로직을 구현했으며 이제 LoRA에서도 지원됩니다
이제 24GB 이하 GPU에서 LoRA를 사용하여 FP16 훈련을 수행할 수 있습니다
이제 4GB GPU에서 FLUX LoRA를 훈련할 수 있습니다. 키는 FP8, 블록 스왑 및 특정 레이어 훈련 사용(단일 레이어 LoRA 훈련 기억)
모든 최신 구성, VRAM 요구 사항, 상대적 단계 속도를 테스트하고 구성을 준비하는 데 하루 이상이 걸렸습니다. :)
위 내용은 Kohya는 FLUX LoRA(B GPU) 및 DreamBooth/Fine-Tuning(B GPU) 교육을 대폭 개선했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!