Google DeepMinds Gemma: Ein tiefes Eintauchen in Open-Source-LLMs
Die KI-Landschaft summt mit Aktivität, insbesondere in Bezug auf Open-Source-Großsprachenmodelle (LLMs). Tech-Giganten wie Google, Meta und Twitter umfassen zunehmend Open-Source-Entwicklung. Google DeepMind hat kürzlich Gemma vorgestellt, eine Familie leichter Open-Source-LLMs, die mit derselben zugrunde liegenden Forschung und Technologie wie Gemini-Modellen von Google erstellt wurden. In diesem Artikel werden Gemma-Modelle, deren Zugänglichkeit über Cloud-GPUs und TPUs untersucht, und bietet eine Schritt-für-Schritt-Anleitung zur Feinabstimmung des Gemma 7B-IT-Modells auf einem Rollenspieldatensatz.
Google Gemma
verstehenGemma (was "Edelstein" in Lateinisch bedeutet) ist eine Familie nur von Decoder, nur von Google DeepMind, entwickelte Modelle von Text-to-Text-Modellen. Gemma wurde von den Gemini -Modellen inspiriert und ist für den leichten Betrieb und die umfassende Kompatibilität für Framework ausgelegt. Google hat Modellgewichte für zwei Gemma-Größen veröffentlicht: 2B und 7B, die jeweils in vorgeborenen und in Anweisungen abgestimmten Varianten erhältlich sind (z. B. Gemma 2B-IT und Gemma 7B-IT). Die Leistung von Gemma konkurriert andere offene Modelle, insbesondere übertrifft die LLAM-2 von Meta über verschiedene LLM-Benchmarks.
Bildquelle
Gemma erstreckt sich auf seine Unterstützung für mehrere Frameworks (Keras 3.0, Pytorch, Jax, umarmende Gesichtstransformatoren) und vielfältige Hardware (Laptops, Desktops, IoT -Geräte, Mobilgeräte und Cloud). Inferenz und Überwachung der Feinabstimmung (SFT) sind auf kostenlosen Cloud-TPUs mit beliebten Frameworks für maschinelles Lernen möglich. Darüber hinaus bietet Google neben Gemma ein verantwortungsbewusstes generatives KI -Toolkit, das Entwicklungsleitungen und Tools zum Erstellen sichererer KI -Anwendungen bietet. Anfänger in AI und LLMs werden ermutigt, die KI -Fundamentals -Fähigkeiten für grundlegendes Wissen zu erkunden.
Zugriff auf das Gemma -Modell von Google
Zugriff auf Gemma ist unkompliziert. Der freie Zugang ist über Huggingchat und Poe erhältlich. Die lokale Verwendung ist auch möglich, indem Modellgewichte vom Umarmungsgesicht und die Verwendung von GPT4all oder LMSTUDIO heruntergeladen werden. Diese Anleitung konzentriert sich auf die Verwendung von Kaggle's Free GPUs und TPUs für Inferenz.
Gemma -Inferenz auf TPUs
laufendUm die Gemma -Inferenz auf TPUs mit Keras auszuführen, befolgen Sie die folgenden Schritte:
!pip install -q tensorflow-cpu !pip install -q -U keras-nlp tensorflow-hub !pip install -q -U keras>=3 !pip install -q -U tensorflow-text
jax.devices()
. jax
als Keras -Backend: os.environ["KERAS_BACKEND"] = "jax"
keras_nlp
und generieren Sie Text mit der Funktion generate
.
Bildquelle
Gemma -Inferenz auf gpus
ausführenfür die GPU -Inferenz mit Transformatoren folgen folgenden Schritten:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U accelerate
Bildquelle
GEMMA von Google von Google: Eine Schritt-für-Schritt-Anleitung
Dieser Abschnitt beschreibt mithilfe eines Kaggle P100 GPU.
hieunguyenminh/roleplay
Einrichten
Installieren Sie die erforderlichen Pakete:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl %pip install -U datasets
Laden Sie die ersten 1000 Zeilen des Rollenspieldatensatzes.
Laden des Modells und Tokenizers
Laden Sie das Gemma 7B-IT-Modell mit 4-Bit-Genauigkeit mit BitsandBytes. Laden Sie den Tokenizer und konfigurieren Sie das Pad -Token.
Hinzufügen der Adapterschicht
Fügen Sie eine LORA-Adapterschicht hinzu, um das Modell effizient zu optimieren.
Training des Modells
Schulungsargumente (Hyperparameter) definieren und einen SftTrainer erstellen. Trainieren Sie das Modell mit
.
.train()
Speichern des Modells
speichern Sie das fein abgestimmte Modell lokal und drücken Sie es in den umarmenden Gesichtszentrum.
Modellinstr es
Antworten mit dem fein abgestimmten Modell erzeugen.
Gemma 7B Inferenz mit Rollenspiel -Adapter
Dieser Abschnitt zeigt, wie das Basismodell und der trainierte Adapter geladen werden, sie zusammenführen und Antworten generieren.
endgültige Gedanken
Die Veröffentlichung von Gemma durch Google ist eine Verschiebung zur Open-Source-Zusammenarbeit in AI. Dieses Tutorial bot einen umfassenden Leitfaden zur Verwendung und Feinabstimmung Gemma-Modellen, wobei die Leistung von Open-Source-Entwicklungs- und Cloud-Computing-Ressourcen hervorgehoben wurde. Der nächste Schritt besteht darin, Ihre eigene LLM-basierte Anwendung mit Frameworks wie Langchain zu erstellen.Das obige ist der detaillierte Inhalt vonFeinabstimmung Google Gemma: Verbesserung von LLMs mit individuellen Anweisungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!