Running Olmo-2 localement avec Gradio et Langchain
OLMO 2: Un puissant LLM open-source pour Ai accessible
Le domaine du traitement du langage naturel (PNL) a connu des progrès rapides, en particulier avec des modèles de langage grand (LLM). Alors que les modèles propriétaires ont historiquement dominé, les alternatives open source comblent rapidement l'écart. Olmo 2 représente un saut significatif en avant, offrant des performances comparables aux modèles de source fermée tout en maintenant une transparence et une accessibilité complètes. Cet article plonge dans OLMO 2, explorant sa formation, sa performance et son application pratique.
Points d'apprentissage clés:
- Saisissez l'importance des LLMS open source et de la contribution d'Olmo 2 à la recherche sur l'IA.
- Comprendre l'architecture d'Olmo 2, les méthodes de formation et les résultats de référence.
- Différencier entre les architectures de modèle ouvertes, partiellement ouvertes et entièrement ouvertes.
- Apprenez à exécuter OLMO 2 localement en utilisant Gradio et Langchain.
- Créez une application de chatbot en utilisant OLMO 2 avec des exemples de code Python.
(Cet article fait partie du blogathon de la science des données.)
Table des matières:
- La nécessité de LLMS open source
- Présentation de Olmo 2
- déconstruire la formation d'Olmo 2
- Exploration des capacités d'Olmo 2
- Construire un chatbot avec Olmo 2
- Conclusion
- Les questions fréquemment posées
La demande de LLMS open source
La domination initiale des LLM propriétaires a soulevé des préoccupations concernant l'accessibilité, la transparence et les biais. Les LLMS open-source abordent ces problèmes en favorisant la collaboration et en permettant un examen minutieux, une modification et une amélioration. Cette approche ouverte est vitale pour faire progresser le domaine et assurer un accès équitable à la technologie LLM.
Le projet OLMO de l'Allen Institute for AI (AI2) illustre cet engagement. Olmo 2 va au-delà de la simple libération des poids du modèle; Il fournit les données de formation, le code, les recettes de formation, les points de contrôle intermédiaires et les modèles réglés par l'instruction. Cette version complète favorise la reproductibilité et l'innovation supplémentaire.
Comprendre Olmo 2
OLMO 2 améliore considérablement son prédécesseur, OLMO-0424. Ses modèles de paramètres 7B et 13B démontrent des performances comparables ou dépassant, ou dépassant des modèles entièrement ouverts similaires, même rivalisant avec des modèles ouverts comme Llama 3.1 sur les références académiques anglaises - une réussite remarquable compte tenu de ses flops de formation réduits.
Les améliorations clés comprennent:
- Gains de performance substantiels: olmo-2 (7b et 13b) montre une amélioration marquée par rapport aux modèles OLMO antérieurs, indiquant les progrès de l'architecture, des données ou de la méthodologie de formation.
- compétitif avec map-neo-7b: olmo-2, en particulier la version 13B, atteint des scores comparables à MAP-neo-7b, une solide ligne de base parmi les modèles entièrement ouverts.
Méthodologie de formation d'Olmo 2
L'architecture d'Olmo 2 OLMO s'appuie sur l'OLMO d'origine, incorporant des raffinements pour une stabilité et des performances améliorées. Le processus de formation comprend deux étapes:
- Fondation Fondation: utilise l'ensemble de données OLMO-MIX-1124 (environ 3,9 billions de jetons provenant de diverses sources ouvertes) pour établir une base solide pour la compréhension du langage.
- Raffinement et spécialisation: utilise l'ensemble de données Dolmino-MIX-1124, un mélange organisé de données Web de haute qualité et de données spécifiques au domaine (contenu académique, forums de questions-réponses, données d'enseignement, manuels de mathématiques), pour affiner les connaissances et les compétences du modèle. "Modèle de soupe" améliore encore le point de contrôle final.
Niveaux d'ouverture dans LLMS
Étant donné que Olmo-2 est un modèle entièrement ouvert, clarifions les distinctions entre les différents niveaux d'ouverture du modèle:
- Modèles ouverts: Seuls les poids du modèle sont libérés.
- Modèles partiellement ouverts: Libérez des informations supplémentaires au-delà des poids, mais pas une image complète du processus de formation.
- Modèles entièrement ouverts: Fournir une transparence complète, y compris des poids, des données de formation, du code, des recettes et des points de contrôle. Cela permet une reproductibilité complète.
Explorer et exécuter Olmo 2 localement
OLMO 2 est facilement accessible. Les instructions pour télécharger le modèle et les données, ainsi que le code de formation et les mesures d'évaluation, sont disponibles. Pour exécuter Olmo 2 localement, utilisez Olllama. Après l'installation, exécutez simplement ollama run olmo2:7b
dans votre ligne de commande. Les bibliothèques nécessaires (Langchain et Gradio) peuvent être installées via Pip.
Construire un chatbot avec Olmo 2
Le code Python suivant montre la construction d'un chatbot utilisant Olmo 2, Gradio et Langchain:
import gradio as gr from langchain_core.prompts import ChatPromptTemplate from langchain_ollama.llms import OllamaLLM def generate_response(history, question): template = """Question: {question} Answer: Let's think step by step.""" prompt = ChatPromptTemplate.from_template(template) model = OllamaLLM(model="olmo2") chain = prompt | model answer = chain.invoke({"question": question}) history.append({"role": "user", "content": question}) history.append({"role": "assistant", "content": answer}) return history with gr.Blocks() as iface: chatbot = gr.Chatbot(type='messages') with gr.Row(): with gr.Column(): txt = gr.Textbox(show_label=False, placeholder="Type your question here...") txt.submit(generate_response, [chatbot, txt], chatbot) iface.launch()
Ce code fournit une interface de chatbot de base. Des applications plus sophistiquées peuvent être construites sur cette fondation. Les exemples de sorties et d'invites sont affichés dans l'article d'origine.
Conclusion
OLMO 2 représente une contribution significative à l'écosystème LLM open source. Ses fortes performances, combinées à sa transparence complète, en font un outil précieux pour les chercheurs et les développeurs. Bien qu'il ne soit pas universellement supérieur à toutes les tâches, sa nature ouverte favorise la collaboration et accélère les progrès dans le domaine de l'IA accessible et transparente
Prise des clés:
- Le modèle de paramètre 13B d'Olmo-2 montre d'excellentes performances sur divers repères, surperformant d'autres modèles ouverts.
- L'ouverture complète du modèle facilite le développement de modèles plus efficaces.
- L'exemple de chatbot présente la facilité d'intégration avec Langchain et Gradio.
Les questions fréquemment posées (FAQ) (Les FAQ de l'article d'origine sont incluses ici.)
(Remarque: Les URL de l'image restent inchangées.)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

META'S LLAMA 3.2: un bond en avant dans l'IA multimodal et mobile Meta a récemment dévoilé Llama 3.2, une progression importante de l'IA avec de puissantes capacités de vision et des modèles de texte légers optimisés pour les appareils mobiles. S'appuyer sur le succès o

Hé là, codant ninja! Quelles tâches liées au codage avez-vous prévues pour la journée? Avant de plonger plus loin dans ce blog, je veux que vous réfléchissiez à tous vos malheurs liés au codage - les énumérez. Fait? - Let & # 8217

Le paysage de l'IA de cette semaine: un tourbillon de progrès, de considérations éthiques et de débats réglementaires. Les principaux acteurs comme Openai, Google, Meta et Microsoft ont déclenché un torrent de mises à jour, des nouveaux modèles révolutionnaires aux changements cruciaux de LE

La récente note du PDG de Shopify Tobi Lütke déclare hardiment la maîtrise de l'IA une attente fondamentale pour chaque employé, marquant un changement culturel important au sein de l'entreprise. Ce n'est pas une tendance éphémère; C'est un nouveau paradigme opérationnel intégré à P

Introduction Imaginez vous promener dans une galerie d'art, entourée de peintures et de sculptures vives. Maintenant, que se passe-t-il si vous pouviez poser une question à chaque pièce et obtenir une réponse significative? Vous pourriez demander: «Quelle histoire racontez-vous?

Introduction Openai a publié son nouveau modèle basé sur l'architecture «aux fraises» très attendue. Ce modèle innovant, connu sous le nom d'O1, améliore les capacités de raisonnement, lui permettant de réfléchir à des problèmes Mor

Le rapport de l'indice de l'intelligence artificielle de 2025 publié par le Stanford University Institute for Human-oriented Artificial Intelligence offre un bon aperçu de la révolution de l'intelligence artificielle en cours. Interprétons-le dans quatre concepts simples: cognition (comprendre ce qui se passe), l'appréciation (voir les avantages), l'acceptation (défis face à face) et la responsabilité (trouver nos responsabilités). Cognition: l'intelligence artificielle est partout et se développe rapidement Nous devons être très conscients de la rapidité avec laquelle l'intelligence artificielle se développe et se propage. Les systèmes d'intelligence artificielle s'améliorent constamment, obtenant d'excellents résultats en mathématiques et des tests de réflexion complexes, et il y a tout juste un an, ils ont échoué lamentablement dans ces tests. Imaginez des problèmes de codage complexes de résolution de l'IA ou des problèmes scientifiques au niveau des diplômés - depuis 2023

Meta's Llama 3.2: une centrale d'IA multimodale Le dernier modèle multimodal de META, LLAMA 3.2, représente une progression importante de l'IA, avec une compréhension du langage améliorée, une précision améliorée et des capacités de génération de texte supérieures. Sa capacité t
