Réflexion Llama 3.1: un LLM auto-corrégé publié le 6 septembre 2024
Réflexion Llama 3.1, une version raffinée du modèle d'instruct de Llama 3.1 70b, a fait ses débuts le 6 septembre 2024. Sa "réglage de réflexion" innovante permet la détection et la correction de l'auto-erreur, visant une précision accrue. Cet article explore le modèle, ses fonctionnalités et comment l'accès et le tester.
Réflexion Llama 3.1: Développement et chronologie
Le lancement du modèle a généré un buzz significatif, offrant initialement des performances supérieures aux modèles de source fermée comme GPT-4O et Claude 3.5 Sonnet sur les tests de référence. Cependant, les tests ultérieurs par analyse artificielle ont révélé des incohérences. Un téléchargement initial sur le visage étreint contenait une erreur de pondération. Une version corrigée, déployée sur OpenRouter, a découvert une auto-identification inattendue en tant que Claude Sonnet 3.5, soulevant des questions sur sa véritable fondation. Alors que les tests API privés ont montré des performances améliorées, la vérification indépendante est restée impossible. La dernière itération des étreintes, bien que accessible via ce lien [lien omis selon le texte d'origine], a démontré des performances inférieures à la version privée de l'API. Les problèmes de reproductibilité persistent, laissant les capacités réelles du modèle incertaines.
Comprendre la réflexion Llama 3.1
Réflexion LLAMA 3.1 exploite le modèle d'instruction LLAMA 3.1 70b et intègre le réglage de la réflexion. Ce processus implique:
<thinking></thinking>
): Le modèle détaille son processus de raisonnement. <reflection></reflection>
): Le modèle identifie et corrige les erreurs dans son raisonnement. <output></output>
): Le modèle présente sa réponse finale. Cette approche structurée améliore la transparence et la précision. Le modèle a été formé à l'aide de données synthétiques de Glaive AI, soulignant l'importance des ensembles de données de haute qualité. En dépit de la phase de recherche, il surpasse les principaux modèles de source fermée sur des références comme MMLU, les mathématiques et GSM8K. Ses créateurs prévoient que la prochaine réflexion LLAMA 405B pour dépasser considérablement ces modèles.
Configuration de la réflexion LLAMA 3.1 sur Google Colab
Accéder à Reflection Llama 3.1 est simple avec les bons outils. Il est disponible sur les laboratoires des étreintes, Olllama et Hyperbolic. Google Colab Pro, avec son GPU A100 (nécessitant des unités de calcul achetées), est recommandé pour le modèle 70b.
Étape 1: Accès GPU
Connectez-vous à un GPU A100 via l'exécution → Changer le type d'exécution.
Étape 2: Installation et téléchargement du modèle Olllama
Utilisez le terminal dans Colab (en utilisant !pip install colab-xterm
et %xterm
) pour installer Olllama (curl -fsSL <https:> | sh</https:>
) et l'exécutez (ollama serve
). Dans un deuxième terminal, téléchargez le modèle de réflexion (ollama run reflection
).
Étape 3: Intégration de Langchain
Installez Langchain (!pip install langchain langchain_community langchain-openai langchain-ollama
) et définissez le modèle d'invite (en utilisant PromptTemplate
de langchain.prompts
et ChatOllama
à partir de langchain_ollama
). Initialisez le modèle à l'aide de ChatOllama(model="reflection", temperature=0)
et invoquez-le avec votre entrée. Exemple:
reflection_model.invoke({'input': "Hi, how are you?"})
Réflexion Llama 3.1 en action
Le modèle a été testé avec diverses invites:
Réflexion Llama 3.1: Applications et limitations
Reflection Llama 3.1 L'auto-correction le rend adapté aux mathématiques, à la logique, à la génération de code, au débogage et à la vérification des faits. Cependant, son auto-correction ajoute de la complexité, un impact potentiellement impactant la vitesse et le coût. Des inexactitudes peuvent encore se produire. La prochaine réflexion Llama 405b promet des améliorations significatives.
Conclusion
Reflection Llama 3.1 Le réglage de la réflexion est un développement prometteur, mais les problèmes de reproductibilité mettent en évidence les défis continus du développement du modèle d'IA. Bien que l'auto-correction soit précieuse, les tests et la validation rigoureux restent cruciaux.
[Section FAQs omise car il s'agit d'une copie directe de la FAQ du texte d'origine]
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!