Heim > Technologie-Peripheriegeräte > KI > Feinabstimmung Google Gemma: Verbesserung von LLMs mit individuellen Anweisungen

Feinabstimmung Google Gemma: Verbesserung von LLMs mit individuellen Anweisungen

Lisa Kudrow
Freigeben: 2025-03-07 10:01:10
Original
227 Leute haben es durchsucht

Google DeepMinds Gemma: Ein tiefes Eintauchen in Open-Source-LLMs

Die KI-Landschaft summt mit Aktivität, insbesondere in Bezug auf Open-Source-Großsprachenmodelle (LLMs). Tech-Giganten wie Google, Meta und Twitter umfassen zunehmend Open-Source-Entwicklung. Google DeepMind hat kürzlich Gemma vorgestellt, eine Familie leichter Open-Source-LLMs, die mit derselben zugrunde liegenden Forschung und Technologie wie Gemini-Modellen von Google erstellt wurden. In diesem Artikel werden Gemma-Modelle, deren Zugänglichkeit über Cloud-GPUs und TPUs untersucht, und bietet eine Schritt-für-Schritt-Anleitung zur Feinabstimmung des Gemma 7B-IT-Modells auf einem Rollenspieldatensatz.

Google Gemma

verstehen

Gemma (was "Edelstein" in Lateinisch bedeutet) ist eine Familie nur von Decoder, nur von Google DeepMind, entwickelte Modelle von Text-to-Text-Modellen. Gemma wurde von den Gemini -Modellen inspiriert und ist für den leichten Betrieb und die umfassende Kompatibilität für Framework ausgelegt. Google hat Modellgewichte für zwei Gemma-Größen veröffentlicht: 2B und 7B, die jeweils in vorgeborenen und in Anweisungen abgestimmten Varianten erhältlich sind (z. B. Gemma 2B-IT und Gemma 7B-IT). Die Leistung von Gemma konkurriert andere offene Modelle, insbesondere übertrifft die LLAM-2 von Meta über verschiedene LLM-Benchmarks.

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions Bildquelle

Die Vielseitigkeit von

Gemma erstreckt sich auf seine Unterstützung für mehrere Frameworks (Keras 3.0, Pytorch, Jax, umarmende Gesichtstransformatoren) und vielfältige Hardware (Laptops, Desktops, IoT -Geräte, Mobilgeräte und Cloud). Inferenz und Überwachung der Feinabstimmung (SFT) sind auf kostenlosen Cloud-TPUs mit beliebten Frameworks für maschinelles Lernen möglich. Darüber hinaus bietet Google neben Gemma ein verantwortungsbewusstes generatives KI -Toolkit, das Entwicklungsleitungen und Tools zum Erstellen sichererer KI -Anwendungen bietet. Anfänger in AI und LLMs werden ermutigt, die KI -Fundamentals -Fähigkeiten für grundlegendes Wissen zu erkunden.

Zugriff auf das Gemma -Modell von Google

Zugriff auf Gemma ist unkompliziert. Der freie Zugang ist über Huggingchat und Poe erhältlich. Die lokale Verwendung ist auch möglich, indem Modellgewichte vom Umarmungsgesicht und die Verwendung von GPT4all oder LMSTUDIO heruntergeladen werden. Diese Anleitung konzentriert sich auf die Verwendung von Kaggle's Free GPUs und TPUs für Inferenz.

Gemma -Inferenz auf TPUs

laufend

Um die Gemma -Inferenz auf TPUs mit Keras auszuführen, befolgen Sie die folgenden Schritte:

  1. Navigieren Sie zu Keras/Gemma, wählen Sie die Modellvariante "Gemma_instruct_2b_en" und klicken Sie auf "Neues Notizbuch".
  2. Wählen Sie im rechten Feld "TPU VM V3-8" als Beschleuniger.
  3. Installieren Sie die erforderlichen Python -Bibliotheken:
!pip install -q tensorflow-cpu
!pip install -q -U keras-nlp tensorflow-hub
!pip install -q -U keras>=3
!pip install -q -U tensorflow-text
Nach dem Login kopieren
  1. Überprüfen Sie die TPU -Verfügbarkeit mit jax.devices().
  2. setzen Sie jax als Keras -Backend: os.environ["KERAS_BACKEND"] = "jax"
  3. Laden Sie das Modell mit keras_nlp und generieren Sie Text mit der Funktion generate.

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions Bildquelle

Gemma -Inferenz auf gpus

ausführen

für die GPU -Inferenz mit Transformatoren folgen folgenden Schritten:

  1. Navigieren Sie zu Google/Gemma, wählen Sie "Transformers", wählen Sie die Variante "7b-it" und erstellen Sie ein neues Notizbuch.
  2. Wählen Sie GPT T4 x2 als Beschleuniger.
  3. Erforderliche Pakete installieren:
%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U accelerate
Nach dem Login kopieren
  1. Laden Sie das Modell mit 4-Bit-Quantisierung mit BitsandBytes für VRAM-Management.
  2. Laden Sie den Tokenizer.
  3. Erstellen Sie eine Eingabeaufforderung, tokenisieren sie, übergeben Sie sie an das Modell, dekodieren Sie die Ausgabe und zeigen Sie das Ergebnis an.

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions Bildquelle

GEMMA von Google von Google: Eine Schritt-für-Schritt-Anleitung

Dieser Abschnitt beschreibt mithilfe eines Kaggle P100 GPU. hieunguyenminh/roleplay Einrichten

Installieren Sie die erforderlichen Pakete:
%%capture 
%pip install -U bitsandbytes 
%pip install -U transformers 
%pip install -U peft 
%pip install -U accelerate 
%pip install -U trl
%pip install -U datasets
Nach dem Login kopieren
Importierende Bibliotheken importieren.
  1. Variablen für das Basismodell, den Datensatz und den fein abgestimmten Modellnamen definieren.
  2. Melden Sie sich bei der Umarmung von Face CLI mit Ihrem API -Schlüssel an.
  3. Initialisieren Sie Gewichte und Verzerrungen (W & B) Arbeitsbereich.
  4. Laden des Datensatzes

Laden Sie die ersten 1000 Zeilen des Rollenspieldatensatzes.

Laden des Modells und Tokenizers

Laden Sie das Gemma 7B-IT-Modell mit 4-Bit-Genauigkeit mit BitsandBytes. Laden Sie den Tokenizer und konfigurieren Sie das Pad -Token.

Hinzufügen der Adapterschicht

Fügen Sie eine LORA-Adapterschicht hinzu, um das Modell effizient zu optimieren.

Training des Modells

Schulungsargumente (Hyperparameter) definieren und einen SftTrainer erstellen. Trainieren Sie das Modell mit

.

.train() Speichern des Modells

speichern Sie das fein abgestimmte Modell lokal und drücken Sie es in den umarmenden Gesichtszentrum.

Modellinstr es

Antworten mit dem fein abgestimmten Modell erzeugen.

Gemma 7B Inferenz mit Rollenspiel -Adapter

Dieser Abschnitt zeigt, wie das Basismodell und der trainierte Adapter geladen werden, sie zusammenführen und Antworten generieren.

endgültige Gedanken

Die Veröffentlichung von Gemma durch Google ist eine Verschiebung zur Open-Source-Zusammenarbeit in AI. Dieses Tutorial bot einen umfassenden Leitfaden zur Verwendung und Feinabstimmung Gemma-Modellen, wobei die Leistung von Open-Source-Entwicklungs- und Cloud-Computing-Ressourcen hervorgehoben wurde. Der nächste Schritt besteht darin, Ihre eigene LLM-basierte Anwendung mit Frameworks wie Langchain zu erstellen.

Das obige ist der detaillierte Inhalt vonFeinabstimmung Google Gemma: Verbesserung von LLMs mit individuellen Anweisungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage