GEMMA de Google Deepmind: une plongée profonde dans les LLMS open source
Le paysage de l'IA bourdonne d'activité, en particulier concernant les modèles de grande langue open source (LLM). Les géants de la technologie comme Google, Meta et Twitter adoptent de plus en plus le développement open-source. Google Deepmind a récemment dévoilé Gemma, une famille de LLMS légères et open-source construites en utilisant la même recherche et technologie sous-jacentes que les modèles Gémeaux de Google. Cet article explore les modèles GEMMA, leur accessibilité via des GPU cloud et des TPU, et fournit un guide étape par étape pour affiner le modèle Gemma 7b-it sur un ensemble de données de jeu.
Comprendre GEMMA de Google
GEMMA (ce qui signifie "pierre précieuse" en latin) est une famille de modèles ouverts de texte à texte uniquement au décodeur développés principalement par Google DeepMind. Inspiré par les modèles Gemini, Gemma est conçue pour un fonctionnement léger et une large compatibilité du cadre. Google a publié des poids de modèle pour deux tailles Gemma: 2b et 7b, chacune disponibles en variantes pré-formées et réglées par l'instruction (par exemple, Gemma 2B-It et Gemma 7b-it). Les performances de Gemma rivalisent avec d'autres modèles ouverts, surpassant notamment le LLAMA-2 de Meta à travers divers repères LLM.
source d'image
La polyvalence de Gemma s'étend à sa prise en charge de plusieurs frameworks (Keras 3.0, Pytorch, Jax, Tablening Face Transformers) et un matériel divers (ordinateurs portables, ordinateurs de bureau, appareils IoT, mobile et cloud). L'inférence et le réglage fin supervisé (SFT) sont possibles sur les TPU cloud gratuits à l'aide de cadres d'apprentissage automatique populaires. En outre, Google fournit une boîte à outils générative d'IA responsable aux côtés de GEMMA, offrant des conseils et des outils pour les développeurs pour créer des applications d'IA plus sûres. Les débutants de l'IA et des LLM sont encouragés à explorer la piste de compétences fondamentales de l'IA pour les connaissances fondamentales.
Accès au modèle GEMMA de Google
L'accès à Gemma est simple. L'accès gratuit est disponible via HuggingChat et Poe. L'utilisation locale est également possible en téléchargeant des poids du modèle en étreignant le visage et en utilisant GPT4ALL ou LMStudio. Ce guide se concentre sur l'utilisation des GPU et des TPU gratuits de Kaggle pour l'inférence.
Exécution de l'inférence Gemma sur TPUS
Pour exécuter l'inférence Gemma sur les TPU à l'aide de keras, suivez ces étapes:
!pip install -q tensorflow-cpu !pip install -q -U keras-nlp tensorflow-hub !pip install -q -U keras>=3 !pip install -q -U tensorflow-text
jax.devices()
. jax
comme backend Keras: os.environ["KERAS_BACKEND"] = "jax"
keras_nlp
et générez du texte à l'aide de la fonction generate
.
source d'image
Exécution de l'inférence Gemma sur les GPU
Pour l'inférence du GPU à l'aide des transformateurs, suivez ces étapes:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U accelerate
source d'image
Fonctionner Gemma de Google: un guide étape par étape
Cette section détaille les réglages GEMMA 7B-IT sur l'ensemble de données hieunguyenminh/roleplay
à l'aide d'un GPU Kaggle P100
Configuration
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl %pip install -U datasets
Chargement de l'ensemble de données
Chargez les 1000 premières lignes de l'ensemble de données de jeu de rôle.
Chargement du modèle et du tokenizer
Chargez le modèle GEMMA 7B-IT en utilisant une précision 4 bits avec des bitsandbytes. Chargez le jeton et configurez le jeton de pad.
ajoutant la couche adaptateur
Ajoutez une couche d'adaptateur LORA pour affiner efficacement le modèle.
Formation du modèle
Définissez des arguments de formation (hyperparamètres) et créez un SFTTRAINER. Former le modèle en utilisant .train()
.
Sauver le modèle
Enregistrez localement le modèle affiné et poussez-le vers le moyeu de face étreint.
Inférence du modèle
générer des réponses en utilisant le modèle affiné.
Gemma 7b Inférence avec l'adaptateur de jeu de rôle
Cette section montre comment charger le modèle de base et l'adaptateur qualifié, les fusionner et générer des réponses.
Réflexions finales
La sortie de Google de Gemma signifie un changement vers la collaboration open source dans l'IA. Ce tutoriel a fourni un guide complet pour utiliser et régler les modèles Gemma, mettant en évidence la puissance du développement open source et des ressources de cloud computing. L'étape suivante consiste à créer votre propre application basée sur LLM à l'aide de frameworks comme Langchain.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!