Le paysage de l'IA évolue rapidement, avec des modèles plus petits et légers gagnant une importance pour leur efficacité et leur évolutivité. Après que Google Deepmind a lancé son modèle 27b Gemma 3, Mistral AI a maintenant publié le modèle léger Mistral 3.1 de paramètres 24B. Ce nouveau modèle rapide et personnalisable redéfinit ce que les modèles légers peuvent faire. Il fonctionne efficacement sur un seul processeur, améliorant la vitesse et l'accessibilité pour les petites équipes et organisations. Dans cette comparaison Mistral 3.1 contre Gemma 3, nous explorerons leurs fonctionnalités, évaluerons leurs performances sur les tests de référence et effectuerons des essais pratiques pour découvrir le meilleur modèle.
Mistral 3.1 est le dernier modèle de grande langue (LLM) de Mistral IA, conçu pour offrir des performances élevées avec des exigences de calcul plus faibles. Il représente un changement vers des modèles d'IA compacts mais puissants, ce qui rend les capacités de l'IA avancées plus accessibles et plus efficaces. Contrairement aux modèles massifs nécessitant des ressources étendues, Mistral 3.1 équilibre l'évolutivité, la vitesse et l'abordabilité, ce qui le rend idéal pour les applications du monde réel.
Mistral 3.1 est disponible via plusieurs plates-formes. Vous pouvez soit télécharger et l'exécuter localement via l'étreinte, soit l'accès à l'aide de l'API Mistral AI.
Vous pouvez télécharger Mistral 3.1 Base et Mistral 3.1 Instruct pour une utilisation directe à partir de l'étreinte. Voici comment le faire:
Étape 1: Installer Vllm Nightly
Ouvrez votre terminal et exécutez cette commande pour installer vllm (cela installe également le package Mistral_Common requis):
pip install vllm --pré --extra-index-url https://wheels.vllm.ai/nightly - mise à niveau
Vous pouvez vérifier l'installation en fonctionnant:
Python -C "Importer Mistral_Common; print (Mistral_Common .__ Version__)"
Étape 2: Préparez votre script Python
Créez un nouveau fichier Python (par exemple, offline_inference.py) et ajoutez le code suivant. Assurez-vous de définir la variable Model_name sur le bon ID de modèle (par exemple, «Mistralai / Mistral-Small-3.1-24b-Instruct-2503»):
à partir de Vllm Import LLM De Vllm.Sampling_Params Import SamplingParams # Définir une invite système (vous pouvez le modifier au besoin) System_Prompt = "Vous êtes un agent conversationnel qui répond toujours directement au point, terminez toujours votre réponse précise avec un dessin ASCII d'un chat." # Définir l'invite utilisateur user_prompt = "Donnez-moi 5 façons non formelles de dire" à plus tard "en français". # Configurer les messages de la conversation messages = [ {"rôle": "système", "contenu": system_prompt}, {"rôle": "utilisateur", "contenu": user_prompt}, ]] # Définissez le nom du modèle (assurez-vous d'avoir suffisamment de mémoire GPU ou d'utiliser la quantification si nécessaire) Model_name = "Mistralai / Mistral-Small-3.1-24B-Instruct-2503" # Initialiser le LLM de VLLM avec le modèle spécifié et le mode tokenizer llm = llm (Model = Model_name, tokenizer_mode = "Mistral") # Définissez les paramètres d'échantillonnage (ajustez max_tokens et température comme vous le souhaitez) Sampling_params = SamplingParams (Max_Tokens = 512, température = 0,15) # Exécutez le modèle hors ligne et obtenez la réponse sorties = llm.chat (messages, sampling_params = sampling_params) # Imprimez le texte généré à partir de la réponse du modèle imprimer (sorties [0] .outputs [0] .Text)
Étape 3: Exécutez le script hors ligne
Le modèle se chargera localement et générera une réponse en fonction de vos invites.
Vous pouvez également accéder à Mistral 3.1 via API. Voici les étapes à suivre pour cela.
Vous pouvez intégrer cette clé API dans vos applications pour interagir avec Mistral 3.1.
Gemma 3 est un modèle ouvert léger à la pointe de la technologie, conçu par Google DeepMind, pour offrir des performances élevées avec une utilisation efficace des ressources. Construit sur les mêmes recherches et technologies qui alimentent Gemini 2.0, il offre des capacités de l'IA avancées sous une forme compacte, ce qui le rend idéal pour les applications sur les applications sur divers matériel. Disponible en tailles de paramètres 1b, 4b, 12b et 27b, Gemma 3 permet aux développeurs de créer des solutions alimentées par AI qui sont rapides, évolutives et accessibles.
Gemma 3 est facilement accessible sur plusieurs plates-formes telles que Google AI Studio, Hugging Face, Kaggle, etc.
Cette option vous permet d'interagir avec Gemma 3 dans un environnement préconfiguré sans rien installer sur votre propre machine.
Étape 1: Ouvrez votre navigateur Web et allez au Google AI Studio.
Étape 2: Connectez-vous avec votre compte Google. Si vous n'en avez pas, créez un compte Google.
Étape 3: Une fois connecté, utilisez la barre de recherche dans AI Studio pour rechercher un ordinateur portable ou un projet de démonstration qui utilise «Gemma 3».
CONSEIL: Recherchez des projets intitulés avec «Gemma 3» ou consultez la section «Notebooks communautaires» où les démos préconfigurées sont souvent partagées.
Étape 4: Lancez la démo en suivant les étapes ci-dessous.
Étape 5: Suivez les instructions du cahier pour commencer à utiliser le modèle. Vous pouvez modifier le texte d'entrée, exécuter des cellules et voir les réponses du modèle en temps réel sans aucune configuration locale.
Si vous préférez travailler avec Gemma 3 sur votre propre machine ou l'intégrer dans vos projets, vous pouvez le télécharger à partir de plusieurs sources.
Étape 1: Visitez le visage des câlins.
Étape 2: Utilisez la barre de recherche pour taper «Gemma 3» et cliquez sur la carte de modèle qui correspond à Gemma 3.
Étape 3: Téléchargez le modèle à l'aide du bouton «Télécharger» ou cloner le référentiel via Git.
Si vous utilisez Python, installez la bibliothèque Transformers:
PIP installe les transformateurs
Étape 4: Chargez et utilisez le modèle dans votre code. Pour cela, vous pouvez créer un nouveau script Python (par exemple, gemma3_demo.py) et ajouter du code similaire à l'extrait ci-dessous:
De Transformers Import AutomodelforCausallm, Autotokenzer Model_id = "Your-Gemma3-Model-ID" # Remplacez par l'ID de modèle réel de la face étreinte modèle = automodelforcusallm.from_pretrain (Model_id) tokenizer = autotokenizer.from_pretrain (Model_id) Invite = "Quelle est la meilleure façon de profiter d'une tasse de café?" entrées = tokenizer (invite, return_tensers = "pt") sorties = Model.generate (** Entrées, max_new_tokens = 50) print (tokenizer.decode (sorties [0], skip_special_tokens = true))
Exécutez votre script localement pour interagir avec Gemma 3.
Étape 1: Ouvrez Kaggle dans votre navigateur.
Étape 2: Utilisez la barre de recherche sur Kaggle pour rechercher "Gemma 3." Recherchez des cahiers ou des ensembles de données où le modèle est utilisé.
Étape 3: Cliquez sur un ordinateur portable pertinent pour voir comment Gemma 3 est intégré. Vous pouvez exécuter le cahier dans l'environnement de Kaggle ou télécharger le cahier pour étudier et le modifier sur votre machine locale.
Étape 1: Visitez Olllama et téléchargez l'application Olllama.
Étape 2: Lancez l'application Olllama sur votre système et utilisez la fonction de recherche intégrée pour rechercher «Gemma 3» dans le catalogue du modèle.
Étape 3: Cliquez sur le modèle Gemma 3 et suivez les invites pour le télécharger et l'installer. Une fois installé, utilisez l'interface Olllama pour tester le modèle en entrant des invites et en affichant les réponses.
En suivant ces étapes détaillées, vous pouvez soit essayer Gemma 3 instantanément sur Google AI Studio, soit le télécharger pour le développement en étreignant Face, Kaggle ou Olllama. Choisissez la méthode qui correspond le mieux à votre flux de travail et à votre configuration matérielle.
Commençons maintenant notre comparaison, en commençant par leurs fonctionnalités. Voici une comparaison détaillée des caractéristiques de Gemma 3 et Mistral Small 3.1, basée sur les données disponibles:
Fonctionnalité | Mistral Small 3.1 | Gemma 3 |
Paramètres | 24b | Disponible en variantes 1b, 4b, 12b et 27b |
Fenêtre de contexte | Jusqu'à 128k jetons | Jusqu'à 128k jetons |
Capacités multimodales | Prend en charge la saisie du texte et de l'image | Prend en charge la saisie du texte et de l'image |
Vitesse d'inférence | Plus rapide (150 jetons par seconde) | Plus lent par rapport à Mistral |
Latence | Latence inférieure (0,33 s au premier jeton) | Latence plus élevée |
Soutien aux langues | Prend en charge des dizaines de langues | Multilingue avec plus de 140 langues |
Style de conversation | Style de conversation sec, mais peut être amélioré avec les invites du système | Plus de réponses de type humain et de style Chatgpt |
Capacités de raisonnement | Surpasse Gemma 3 dans des tâches de raisonnement comme MMLU | Fonctionne bien dans le raisonnement mais pas le premier niveau |
Open source | Oui (licence Apache 2.0) | Oui |
Dans cette section, nous comparerons Gemma 3 et Mistral 3.1 sur certaines tâches pratiques et verrons comment elles fonctionnent. Pour une comparaison équitable, nous allons essayer les mêmes invites sur les deux modèles, voici une liste de tâches que nous essaierons:
Commençons.
Dans cette tâche, nous donnerons aux modèles une image de bonbons ayant des symboles animaux, et leur demanderons d'identifier l'animal sur les bonbons.
Invite: «Identité l'animal dans l'image»
Image d'entrée:
Sortir
Mistral 3.1 | Gemma 3 |
Les bonbons de l'image semblent être des M&M, et l'animal représenté sur eux est une tortue. La conception des tortues est visible sur les bonbons bleu, orange et vert. | Analysons les bonbons à l'image! L'animal sur les bonbons est une tortue. Vous pouvez voir la coquille et la tête et les jambes d'une tortue clairement imprimée à la surface. |
Les deux modèles ont correctement identifié l'animal dans l'image comme une tortue. Cependant, Mistral 3.1 a fourni un contexte supplémentaire en identifiant les bonbons comme M&M et en mentionnant les couleurs des bonbons. Pendant ce temps, Gemma 3 a décrit l'apparence de la tortue de manière plus générale.
Verdict: les deux modèles ont réussi à identifier l'objet, mais Mistral 3.1 a fourni des informations contextuelles légèrement plus détaillées. Par conséquent, Mistral 3.1 gagne ce tour.
Score: Mistral 3.1: 1 | Gemma 3: 0
Pour tester les modèles sur leurs capacités d'extraction des données visuelles, nous leur fournirons une image d'un avion et leur demanderons d'en extraire le code du véhicule.
Invite: "Quel est le code sur le véhicule?"
Image d'entrée:
Sortir:
Mistral 3.1 | Gemma 3 |
Le code sur le véhicule, qui est un avion, est «D-Eoju». | Sur la base de l'image, le véhicule est un Cessna 172 Skyhawk. Le code d'enregistrement sur la queue est d-eoju. |
Mistral 3.1 et Gemma 3 ont réussi à identifier le code d'enregistrement de l'avion. Mais, Gemma 3 a non seulement identifié le code, mais a également ajouté des détails supplémentaires, tels que le modèle d'avion.
Verdict: Les deux modèles ont extrait avec précision le code, mais Gemma 3 a offert plus de détails d'arrière-plan sur le véhicule. Ainsi, Gemma 3 obtient le but de celui-ci.
Score: Mistral 3.1: 1 | Gemma 3: 1
Pour la dernière tâche, nous leur fournirons une image d'un reçu WiFi et leur demanderons d'en extraire le mot de passe wifi.
Invite: "Quel est le mot de passe?"
Image d'entrée:
Sortir:
Mistral 3.1 | Gemma 3 |
Le mot de passe fourni dans l'image est ** aaeU **. Voici les informations de l'image pour plus de clarté: - ** Nom d'utilisateur: ** FQPP - ** Mot de passe: ** aaeU - ** Trafic: ** 1 Go - ** Prix: ** 0,00 - ** Validité: ** 1 semaine - ** commence: ** maintenant - ** utilisateurs partagés: ** 4 - ** Date et heure: ** 27/02/2019 11:03:15 |
Sur la base de l'image, le mot de passe est aaeu |
Les deux modèles ont extrait avec précision le mot de passe de l'image. De plus, Mistral 3.1 a fourni des détails supplémentaires sur le nom d'utilisateur, le trafic, le prix, la validité et d'autres informations connexes, ce qui rend sa production plus complète.
Verdict: Mistral 3.1 a mieux fonctionné pour extraire et présenter des données structurées, offrant un contexte plus utile. Ainsi, Mistral 3.1 obtient un autre point pour cette tâche.
Score: Mistral 3.1: 2 | Gemma 3: 1
Voici un résumé des performances des deux modèles à travers les tâches que nous avons essayées.
Tâche | Mistral 3.1 Performance | Gemma 3 Performance | Gagnant |
Détection d'objet | A correctement identifié l'animal (tortue) et a fourni un contexte supplémentaire, mentionnant que les bonbons étaient M&M et spécifiant leurs couleurs. | A correctement identifié l'animal comme une tortue et a décrit son apparence mais sans détails contextuels supplémentaires. | Mistral 3.1 |
Extraction des données visuelles (code du véhicule) | Extrait avec succès le code d'enregistrement («d-eoju») de l'image de l'avion. | A extrait avec précision le code d'enregistrement et a également identifié le modèle d'avion (Cessna 172 Skyhawk). | Gemma 3 |
Extraction des données visuelles (texte imprimé) | Extrait correctement le mot de passe WiFi et fourni des données structurées supplémentaires telles que le nom d'utilisateur, le trafic, le prix, la validité et d'autres détails. | Extrait correctement le mot de passe WiFi mais n'a pas fourni d'informations structurées supplémentaires. | Mistral 3.1 |
À partir de cette comparaison, nous avons vu que Mistral 3.1 excelle dans l'extraction structurée des données et fournissant des réponses concises mais informatives. Pendant ce temps, Gemma 3 fonctionne bien dans la reconnaissance d'objets et offre des détails contextuels plus riches dans certains cas.
Pour les tâches nécessitant une extraction de données rapide, structurée et précise, Mistral 3.1 est le meilleur choix. Pour les tâches où le contexte et les informations descriptives supplémentaires sont importantes, Gemma 3 a un avantage. Par conséquent, le meilleur modèle dépend du cas d'utilisation spécifique.
Voyons maintenant comment ces deux modèles ont fonctionné sur divers tests de référence standard. Pour cette comparaison, nous examinerons les repères qui testent les capacités des modèles dans la gestion du texte, du contenu multilingue, du contenu multimodal et des contextes longs. Nous examinerons également les résultats sur les références de performance pré-étendue.
GEMMA 3 et Mistral Small 3.1 sont des modèles notables d'IA qui ont été évalués à travers divers repères.
À partir du graphique, nous pouvons voir que:
Le graphique illustre visuellement que:
À partir du graphique, nous pouvons voir que:
Pour des performances multilingues:
Pour une longue manipulation de contexte:
De ce graphique, nous pouvons voir que:
Mistral 3.1 et Gemma 3 sont de puissants modèles d'IA légers, chacun excellant dans différentes zones. Mistral 3.1 est optimisé pour la vitesse, la faible latence et les capacités de raisonnement solides, ce qui en fait le choix préféré pour les applications en temps réel comme les chatbots, le codage et la génération de texte. Son efficacité et sa spécialisation des tâches améliorent encore son attrait pour les tâches d'IA axées sur le rendement.
D'un autre côté, Gemma 3 offre un support multilingue étendu, des capacités multimodales et une fenêtre de contexte compétitif, ce qui le rend bien adapté aux applications mondiales d'IA, à la résumé des documents et à la génération de contenu dans divers langages. Cependant, il échange une certaine vitesse et efficacité par rapport à Mistral 3.1.
En fin de compte, le choix entre Mistral 3.1 et Gemma 3 dépend de besoins spécifiques. Mistral 3.1 excelle dans les applications axées sur les performances et en temps réel, tandis que Gemma 3 est idéale pour les solutions d'IA multilingues et multimodales.
R. Oui, vous pouvez affiner les deux modèles. Mistral 3.1 soutient le réglage fin pour des domaines spécifiques comme l'IA légal et les soins de santé. Gemma 3 fournit des versions quantifiées pour une efficacité optimisée.
Q2. Comment choisir entre Mistral 3.1 et Gemma 3?A. Choisissez Mistral 3.1 Si vous avez besoin d'un raisonnement rapide, d'un codage et d'une inférence efficace. Choisissez Gemma 3 si vous avez besoin d'applications de support multilingue et de texte.
Q3. Quelles sont les principales différences d'architecture entre Mistral 3.1 et Gemma 3?A. Mistral 3.1 est un modèle de transformateur dense formé pour une inférence rapide et un raisonnement fort, tandis que Gemma 3 est disponible dans les tailles de paramètres 1b, 4b, 12b et 27b, optimisées pour la flexibilité.
Q4. Ces modèles prennent-ils en charge l'entrée multimodale?A. Oui, les deux modèles prennent en charge la vision et le traitement du texte, ce qui les rend utiles pour le sous-titrage de l'image et le raisonnement visuel.
Q5. Quel type de modèle est Mistral 3.1?A. Mistral 3.1 est un modèle de transformateur dense conçu pour une inférence rapide et un raisonnement fort, ce qui le rend adapté aux tâches NLP complexes.
Q6. Quelles sont les tailles disponibles de Gemma 3?A. Gemma 3 est disponible en tailles de paramètres 1b, 4b, 12b et 27b, offrant une flexibilité sur différentes configurations matérielles.
Q7. Quelles sont les forces et les faiblesses de Mistral 3.1 dans l'analyse comparative?A. Mistral 3.1 excelle avec une inférence rapide, une compréhension des PNL robuste et une faible consommation de ressources, ce qui le rend très efficace. Cependant, il a des capacités multimodales limitées et fonctionne légèrement plus faible que GPT-4 sur les tâches à long contexte.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!