> 백엔드 개발 > 파이썬 튜토리얼 > Kohya는 FLUX LoRA(B GPU) 및 DreamBooth/Fine-Tuning(B GPU) 교육을 대폭 개선했습니다.

Kohya는 FLUX LoRA(B GPU) 및 DreamBooth/Fine-Tuning(B GPU) 교육을 대폭 개선했습니다.

Patricia Arquette
풀어 주다: 2024-11-21 08:57:09
원래의
561명이 탐색했습니다.

모든 구성과 전체 지침을 다운로드할 수 있습니다

https://www.patreon.com/posts/112099700 - 미세 조정 게시물

https://www.patreon.com/posts/110879657 - LoRA 포스트

Kohya는 FLUX LoRA 및 DreamBooth/Fine-Tuning(최소 6GB GPU) 교육을 대폭 개선했습니다.

이제 4GB GPU만으로도 적절한 품질로 FLUX LoRA를 훈련할 수 있으며, 24GB 이하 GPU는 Full DreamBooth/Fine-Tuning 훈련을 수행할 때 속도가 크게 향상됩니다.

FLUX LoRA 교육을 수행하려면 최소 4GB GPU가 필요하고 FLUX DreamBooth/Full Fine-Tuning 교육을 수행하려면 최소 6GB GPU가 필요합니다. 정말 감동적이네요.

모든 구성과 전체 지침을 다운로드할 수 있습니다. > https://www.patreon.com/posts/112099700

위 게시물에는 Windows, RunPod 및 Massed Compute용 원클릭 설치 프로그램과 다운로더도 있습니다

모델 다운로더 스크립트도 업데이트되었으며 대량 컴퓨팅에서 30GB 모델을 다운로드하는 데 총 1분이 소요됩니다

여기에서 최근 업데이트를 읽을 수 있습니다: https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates

Kohya GUI 지점입니다: https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1

VRAM 사용량을 줄이는 핵심은 블록 스왑을 활용하는 것입니다

Kohya는 블록 교환 속도를 크게 향상시키기 위해 OneTrainer의 로직을 구현했으며 이제 LoRA에서도 지원됩니다

이제 24GB 이하 GPU에서 LoRA를 사용하여 FP16 훈련을 수행할 수 있습니다

이제 4GB GPU에서 FLUX LoRA를 훈련할 수 있습니다. 키는 FP8, 블록 스왑 및 특정 레이어 훈련 사용(단일 레이어 LoRA 훈련 기억)

모든 최신 구성, VRAM 요구 사항, 상대적 단계 속도를 테스트하고 구성을 준비하는 데 하루 이상이 걸렸습니다. :)

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

위 내용은 Kohya는 FLUX LoRA(B GPU) 및 DreamBooth/Fine-Tuning(B GPU) 교육을 대폭 개선했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

원천:dev.to
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿