Maison > Périphériques technologiques > IA > Fine Actionnement Google Gemma: Amélioration des LLM avec des instructions personnalisées

Fine Actionnement Google Gemma: Amélioration des LLM avec des instructions personnalisées

Lisa Kudrow
Libérer: 2025-03-07 10:01:10
original
227 Les gens l'ont consulté

GEMMA de Google Deepmind: une plongée profonde dans les LLMS open source

Le paysage de l'IA bourdonne d'activité, en particulier concernant les modèles de grande langue open source (LLM). Les géants de la technologie comme Google, Meta et Twitter adoptent de plus en plus le développement open-source. Google Deepmind a récemment dévoilé Gemma, une famille de LLMS légères et open-source construites en utilisant la même recherche et technologie sous-jacentes que les modèles Gémeaux de Google. Cet article explore les modèles GEMMA, leur accessibilité via des GPU cloud et des TPU, et fournit un guide étape par étape pour affiner le modèle Gemma 7b-it sur un ensemble de données de jeu.

Comprendre GEMMA de Google

GEMMA (ce qui signifie "pierre précieuse" en latin) est une famille de modèles ouverts de texte à texte uniquement au décodeur développés principalement par Google DeepMind. Inspiré par les modèles Gemini, Gemma est conçue pour un fonctionnement léger et une large compatibilité du cadre. Google a publié des poids de modèle pour deux tailles Gemma: 2b et 7b, chacune disponibles en variantes pré-formées et réglées par l'instruction (par exemple, Gemma 2B-It et Gemma 7b-it). Les performances de Gemma rivalisent avec d'autres modèles ouverts, surpassant notamment le LLAMA-2 de Meta à travers divers repères LLM.

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions source d'image

La polyvalence de Gemma s'étend à sa prise en charge de plusieurs frameworks (Keras 3.0, Pytorch, Jax, Tablening Face Transformers) et un matériel divers (ordinateurs portables, ordinateurs de bureau, appareils IoT, mobile et cloud). L'inférence et le réglage fin supervisé (SFT) sont possibles sur les TPU cloud gratuits à l'aide de cadres d'apprentissage automatique populaires. En outre, Google fournit une boîte à outils générative d'IA responsable aux côtés de GEMMA, offrant des conseils et des outils pour les développeurs pour créer des applications d'IA plus sûres. Les débutants de l'IA et des LLM sont encouragés à explorer la piste de compétences fondamentales de l'IA pour les connaissances fondamentales.

Accès au modèle GEMMA de Google

L'accès à Gemma est simple. L'accès gratuit est disponible via HuggingChat et Poe. L'utilisation locale est également possible en téléchargeant des poids du modèle en étreignant le visage et en utilisant GPT4ALL ou LMStudio. Ce guide se concentre sur l'utilisation des GPU et des TPU gratuits de Kaggle pour l'inférence.

Exécution de l'inférence Gemma sur TPUS

Pour exécuter l'inférence Gemma sur les TPU à l'aide de keras, suivez ces étapes:

  1. Accédez à Keras / Gemma, sélectionnez la variante du modèle "Gemma_instruct_2b_en", puis cliquez sur "Nouveau ordinateur portable". "
  2. Dans le panneau de droite, sélectionnez "TPU VM V3-8" comme accélérateur.
  3. Installez les bibliothèques Python nécessaires:
!pip install -q tensorflow-cpu
!pip install -q -U keras-nlp tensorflow-hub
!pip install -q -U keras>=3
!pip install -q -U tensorflow-text
Copier après la connexion
  1. Vérifiez la disponibilité TPU à l'aide de jax.devices().
  2. Set jax comme backend Keras: os.environ["KERAS_BACKEND"] = "jax"
  3. Chargez le modèle à l'aide de keras_nlp et générez du texte à l'aide de la fonction generate.

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions source d'image

Exécution de l'inférence Gemma sur les GPU

Pour l'inférence du GPU à l'aide des transformateurs, suivez ces étapes:

  1. Accédez à Google / Gemma, sélectionnez "Transformers", choisissez la variante "7b-it" et créez un nouveau ordinateur portable.
  2. Sélectionnez GPT T4 X2 comme accélérateur.
  3. Installez les packages requis:
%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U accelerate
Copier après la connexion
  1. Chargez le modèle en utilisant la quantification 4 bits avec des bitsandbytes pour la gestion VRAM.
  2. Chargez le tokenzer.
  3. Créer une invite, la tokenize, la transmettre au modèle, décoder la sortie et afficher le résultat.

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions source d'image

Fonctionner Gemma de Google: un guide étape par étape

Cette section détaille les réglages GEMMA 7B-IT sur l'ensemble de données hieunguyenminh/roleplay à l'aide d'un GPU Kaggle P100

Configuration

  1. Installez les packages nécessaires:
%%capture 
%pip install -U bitsandbytes 
%pip install -U transformers 
%pip install -U peft 
%pip install -U accelerate 
%pip install -U trl
%pip install -U datasets
Copier après la connexion
  1. Importer des bibliothèques requises.
  2. Définir les variables pour le modèle de base, l'ensemble de données et le nom du modèle affiné.
  3. Connectez-vous à CLI pour les câlins en utilisant votre clé API.
  4. Initialiser les poids et biais (W&B) Espace de travail.

Chargement de l'ensemble de données

Chargez les 1000 premières lignes de l'ensemble de données de jeu de rôle.

Chargement du modèle et du tokenizer

Chargez le modèle GEMMA 7B-IT en utilisant une précision 4 bits avec des bitsandbytes. Chargez le jeton et configurez le jeton de pad.

ajoutant la couche adaptateur

Ajoutez une couche d'adaptateur LORA pour affiner efficacement le modèle.

Formation du modèle

Définissez des arguments de formation (hyperparamètres) et créez un SFTTRAINER. Former le modèle en utilisant .train().

Sauver le modèle

Enregistrez localement le modèle affiné et poussez-le vers le moyeu de face étreint.

Inférence du modèle

générer des réponses en utilisant le modèle affiné.

Gemma 7b Inférence avec l'adaptateur de jeu de rôle

Cette section montre comment charger le modèle de base et l'adaptateur qualifié, les fusionner et générer des réponses.

Réflexions finales

La sortie de Google de Gemma signifie un changement vers la collaboration open source dans l'IA. Ce tutoriel a fourni un guide complet pour utiliser et régler les modèles Gemma, mettant en évidence la puissance du développement open source et des ressources de cloud computing. L'étape suivante consiste à créer votre propre application basée sur LLM à l'aide de frameworks comme Langchain.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal