> 기술 주변기기 > 일체 포함 > 미세 조정 라마 3.2 및 로컬 사용 : 단계별 가이드

미세 조정 라마 3.2 및 로컬 사용 : 단계별 가이드

William Shakespeare
풀어 주다: 2025-03-03 10:30:12
원래의
817명이 탐색했습니다.
라마의 힘 잠금 해제 3.2 : 미세 조정 및 로컬 배치에 대한 포괄적 인 안내서 대형 언어 모델 (LLM)의 풍경은 더 작고 효율적인 모델에 중점을두고 빠르게 진화하고 있습니다. LLAMA 3.2는 가볍고 비전 모델 변형으로 이러한 추세를 보여줍니다. 이 튜토리얼은 고객 지원 데이터 세트의 미세 조정 및 Jan Application을 사용한 후속 로컬 배치를 위해 LLAMA 3.2의 기능, 특히 3B Lightweight 모델을 활용하는 방법을 자세히 설명합니다. 다이빙을하기 전에 초보자는 LLM과 생성 AI의 기본 사항을 파악하기 위해 AI 기초 과정을 완료하는 것이 좋습니다.

저자의 이미지 라마 3.2 모델 탐색 경량 모델 경량 패밀리에는 1B 및 3B 매개 변수 변형이 포함됩니다. 소형 크기를 사용하면 기기 처리가 가능하여 데이터 프라이버시 및 빠르고 비용 효율적인 텍스트 생성을 보장합니다. 이 모델은 가지 치기 및 지식 증류를 사용하여 효율성과 성능을 활용합니다. 3B 모델은 지시 및 요약과 같은 작업에서 Gemma 2 및 Phi 3.5-Mini와 같은 경쟁자를 능가합니다.

비전 모델 비전 모델 (11b 및 90b 매개 변수)은 문서와 차트를 해석 할 수있는 이미지 추론을 위해 설계되었습니다. 그들의 멀티 모달 기능은 사전 훈련 된 이미지 인코더를 언어 모델과 통합하는 데 비롯됩니다. 그들은 시각적 이해 작업에서 Claude 3 Haiku와 GPT-4O Mini보다 우수합니다.

Kaggle에서 Llama 3.2에 액세스하십시오 Llama 3.2는 오픈 소스이지만 액세스는 이용 약관을 수락해야합니다. Kaggle을 통해 액세스하는 방법은 다음과 같습니다
    메타로 이동하십시오 | Llama 3.2 Kaggle의 모델 페이지를 제출하고 양식을 제출하십시오. 이용 약관을 수락하십시오 노트북 생성 옵션을 기다립니다. Transformers 탭을 선택하고 모델 변형을 선택하고 새 노트를 만듭니다.
  1. accelerator를 "gpu t4 x2"로 구성하십시오
  2. . 를 사용하여 및
  3. 패키지를 업데이트하십시오
  4. 후속 단계에는 라이브러리를 사용하여 토큰 화기 및 모델을로드하고 로컬 모델 디렉토리를 지정하고 설정, 텍스트 생성 파이프 라인 생성 및 사용자 정의 프롬프트에 대한 추론을 실행하는 것과 관련이 있습니다. 자세한 코드 예제는 함께 제공되는 Kaggle 노트북에 제공됩니다. GPU 요구 사항이 상당히 높지만 LLAMA 3.2 비전 모델에 액세스하는 데 비슷한 단계가 적용됩니다. 미세 조정 라마 3.2 3B orruct 이 섹션은 효율적인 교육을 위해
  5. 라이브러리 및 Qlora를 사용하여 고객 지원 데이터 세트에서 LLAMA 3.2 3B 지시 모델을 미세 조정하여 안내합니다.

    설정

    새로운 Kaggle 노트북을 시작하고 얼굴과 웨이트 및 바이어스 (WANDB) 액세스를위한 환경 변수를 설정하십시오. 필요한 패키지를 설치하십시오 : ,
      ,
    1. , ,
    2. ,
    3. 및 . API 키를 사용하여 껴안는 얼굴과 wandb에 로그인하십시오. 기본 모델, 새 모델 이름 및 데이터 세트 이름의 변수 정의. transformers 모델과 토큰 화기로드 datasets accelerate GPU 기능을 기반으로 적절한 pefttrl를 결정하십시오. 메모리 사용을 최소화하기 위해 4 비트 양자화를 위해 bitsandbytes를 사용하여 모델을로드하십시오. 토큰 화기를로드하십시오 wandb 데이터 세트로드 및 처리
    4. 를로드
    도우미 함수를 사용하여 모든 선형 모듈 이름을 식별하십시오 특정 모듈 만 미세 조정하기 위해

    를 사용하여 lora를 구성하십시오 kaggle에 대한 효율적인 훈련을 위해 적절한 과수기 체로

    를 설정하십시오.
      모델, 데이터 세트, LORA 구성, 교육 인수 및 토큰 화기를 제공하여 인스턴스를 작성하십시오.
    1. torch_dtype 모델 훈련 를 사용하여 모델을 훈련시킵니다. WANDB를 사용한 교육 및 검증 손실을 모니터링합니다 모델 추론 데이터 세트의 샘플 프롬프트로 미세 조정 된 모델을 테스트하십시오. 모델 저장 미세 조정 된 모델을 로컬로 저장하고 포옹 페이스 허브로 밀어 넣으십시오. 미세 조정 된 모델 병합 및 내보내기 이 섹션은 미세 조정 된 LORA 어댑터를 기본 모델과 병합하고 포옹 페이스 허브로 내보내는 세부 사항에 대해 자세히 설명합니다. 여기에는 기본 모델과 Lora 어댑터를로드하여 attn_implementation 및 를 사용하여 병합 한 다음 병합 된 모델을 허브로 저장하고 밀어 넣어야합니다. GGUF 및 로컬 배치로 변환 마지막으로, 튜토리얼은 GGUF 마이 리프로 도구를 사용하여 병합 된 모델을 GGUF 형식으로 변환하고 Jan 응용 프로그램을 사용하여 로컬로 배포하는 것을 설명합니다. 여기에는 GGUF 파일을 다운로드하고 1 월으로 가져오고 시스템 프롬프트를 설정하고 최적의 성능을 위해 토큰을 중지하는 것이 포함됩니다.

      결론 작은 LLM을 미세 조정하면 특정 작업을위한 모델 사용자 정의에 대한 비용 효율적이고 효율적인 접근 방식이 제공됩니다. 이 튜토리얼은 액세스 및 미세 조정에서 로컬 배치에 이르기까지 LLAMA 3.2의 기능을 활용하여 사용자가 사용자 정의 AI 솔루션을 구축하고 배포 할 수있는 실용적인 가이드를 제공합니다. 자세한 코드 예제는 함께 제공되는 Kaggle 노트북에 문의하십시오.

위 내용은 미세 조정 라마 3.2 및 로컬 사용 : 단계별 가이드의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿