> 기술 주변기기 > 일체 포함 > 미세 조정 Google Gemma : 맞춤형 지침으로 LLM 향상

미세 조정 Google Gemma : 맞춤형 지침으로 LLM 향상

Lisa Kudrow
풀어 주다: 2025-03-07 10:01:10
원래의
227명이 탐색했습니다.
Google DeepMind의 보석 : 오픈 소스 LLMS에 대한 깊은 다이빙

AI 환경은 특히 오픈 소스 대형 언어 모델 (LLM)과 관련하여 활동으로 윙윙 거리고 있습니다. Google, Meta 및 Twitter와 같은 기술 대기업은 점점 더 오픈 소스 개발을 수용하고 있습니다. Google Deepmind는 최근 Google의 Gemini 모델과 동일한 기본 연구 및 기술을 사용하여 구축 된 가벼운 오픈 소스 LLM 제품군 인 Gemma를 공개했습니다. 이 기사는 클라우드 GPU 및 TPU를 통한 접근성 인 Gemma 모델을 탐색하며 롤 플레잉 데이터 세트에서 Gemma 7B-IT 모델을 미세 조정하기위한 단계별 안내서를 제공합니다. Google의 젬마 이해 Gemma (라틴어의 "귀중한 돌"을 의미)는 주로 Google DeepMind가 개발 한 디코더 전용 텍스트-텍스트 오픈 모델의 패밀리입니다. Gemini 모델에서 영감을 얻은 Gemma는 가벼운 작동 및 광범위한 프레임 워크 호환성을 위해 설계되었습니다. Google은 2b 및 7b의 두 가지 젬마 크기에 대한 모델 가중치를 출시했으며, 각각 미리 훈련 된 및 지시 조정 변형 (예 : Gemma 2B-IT 및 Gemma 7B-IT)으로 제공됩니다. Gemma의 성능은 다양한 LLM 벤치 마크에서 메타의 LLAMA-2를 능가하는 다른 오픈 모델과 경쟁합니다.

이미지 소스

Gemma의 다양성은 여러 프레임 워크 (Keras 3.0, Pytorch, Jax, Hugging Face Transformers) 및 다양한 하드웨어 (노트북, 데스크탑, IoT 장치, 모바일 및 클라우드)에 대한 지원으로 확장됩니다. 인기있는 기계 학습 프레임 워크를 사용하여 무료 클라우드 TPU에서 추론 및 감독 미세 조정 (SFT)이 가능합니다. 또한 Google은 Gemma와 함께 책임있는 생성 AI 툴킷을 제공하여 개발자에게 더 안전한 AI 애플리케이션을 만들기위한 지침 및 도구를 제공합니다. AI 및 LLM의 초보자는 기본 지식을위한 AI 기초 기술 트랙을 탐색하는 것이 좋습니다. Google의 Gemma 모델에 액세스합니다 젬마에 접근하는 것은 간단합니다. HuggingChat 및 Poe를 통해 무료 액세스를 제공합니다. 얼굴 포옹에서 모델 가중치를 다운로드하고 GPT4ALL 또는 LMStudio를 활용하여 지역 사용이 가능합니다. 이 안내서는 추론을 위해 Kaggle의 무료 GPU 및 TPU 사용에 중점을 둡니다. tpus에서 젬마 추론을 실행합니다 keras를 사용하여 TPU에서 젬마 추론을 실행하려면 다음을 따르십시오.

    keras/gemma로 이동하여 "gemma_instruct_2b_en"모델 변형을 선택하고 "새 노트북"을 클릭하십시오. 오른쪽 패널에서 "TPU vm v3-8"을 가속기로 선택하십시오. 필요한 파이썬 라이브러리 설치 :
  1. keras 백엔드로
  2. 를 설정하십시오 :
  3. 를 사용하여 모델을로드하고 함수를 사용하여 텍스트를 생성합니다.
!pip install -q tensorflow-cpu
!pip install -q -U keras-nlp tensorflow-hub
!pip install -q -U keras>=3
!pip install -q -U tensorflow-text
로그인 후 복사
이미지 소스
    gpus에서 젬마 추론을 실행합니다 변압기를 사용한 GPU 추론의 경우 다음 단계를 따르십시오
  1. Google/Gemma로 이동하여 "Transformers"를 선택하고 "7B-IT"변형을 선택하고 새 노트를 만듭니다. gpt t4 x2를 가속기로 선택하십시오 필수 패키지를 설치하십시오 : jax.devices()
  2. VRAM 관리를 위해 Bitsandbytes를 사용하여 4 비트 양자화를 사용하여 모델을로드하십시오. 토큰 화기를로드하십시오 프롬프트를 만들고, 토큰 화하고, 모델로 전달하고, 출력을 해독하고, 결과를 표시합니다. . jax os.environ["KERAS_BACKEND"] = "jax" 이미지 소스
  3. 미세 조정 Google의 보석 : 단계별 안내서 이 섹션은 Kaggle P100 GPU를 사용하여 데이터 세트에서 미세 조정 젬마 7B-IT에 대해 자세히 설명합니다.
  4. 설정 keras_nlp 필요한 패키지를 설치하십시오 : generate
필수 라이브러리 가져 오기 기본 모델, 데이터 세트 및 미세 조정 된 모델 이름의 변수 정의. API 키를 사용하여 포옹 얼굴 Cli에 로그인하십시오.

가중치 및 바이어스 초기화 (w & b) 작업 공간 Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions 데이터 세트로드 롤 플레잉 데이터 세트의 첫 1000 행을로드하십시오 모델과 토큰 화기로드 Bitsandbytes와 함께 4 비트 정밀도를 사용하여 Gemma 7B-IT 모델을로드하십시오. 토큰 화기를로드하고 패드 토큰을 구성하십시오 어댑터 레이어 추가 모델을 효율적으로 미세 조정하기 위해 로라 어댑터 레이어를 추가하십시오. 모델 훈련 훈련 인수 (초 파라미터)를 정의하고 sfttrainer를 만듭니다. 모델 저장 미세 조정 된 모델을 로컬로 저장하고 포옹 페이스 허브로 밀어 넣으십시오. 모델 추론 미세 조정 모델을 사용하여 응답을 생성합니다 gemma 7b 역할 재생 어댑터 에 대한 추론 이 섹션은 기본 모델과 훈련 된 어댑터를로드하고 병합하고 응답을 생성하는 방법을 보여줍니다. 최종 생각 Gemma의 Google 릴리스는 AI의 오픈 소스 협업으로의 전환을 의미합니다. 이 튜토리얼은 오픈 소스 개발 및 클라우드 컴퓨팅 리소스의 힘을 강조하는 Gemma 모델 사용 및 미세 조정에 대한 포괄적 인 안내서를 제공했습니다. 다음 단계는 Langchain과 같은 프레임 워크를 사용하여 자신의 LLM 기반 애플리케이션을 구축하는 것입니다.

위 내용은 미세 조정 Google Gemma : 맞춤형 지침으로 LLM 향상의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿