Maison développement back-end Tutoriel Python Créer un générateur d'articles avec LangChain et LlamaAn AI Developer's Journey

Créer un générateur d'articles avec LangChain et LlamaAn AI Developer's Journey

Dec 30, 2024 am 09:25 AM

Créer un générateur d'articles avec LangChain et Llama3 : le parcours d'un développeur d'IA

En tant que développeur d'IA, je me retrouve souvent à chercher des moyens de rendre les interactions complexes du Grand Langage (LLM) plus gérables. LangChain a attiré mon attention non seulement en raison de sa popularité croissante dans la communauté du développement de l'IA, mais également en raison de son approche pratique pour résoudre les défis courants d'intégration LLM. La réputation du framework pour transformer des opérations LLM complexes en flux de travail rationalisés m'a suffisamment intrigué pour le tester. J'ai décidé de créer un système de génération d'articles qui combinerait les capacités de LangChain avec le modèle Llama3 pour créer un outil avec des applications du monde réel.

Pourquoi LangChain a du sens

LangChain change la façon dont nous interagissons avec les LLM en fournissant une approche structurée et intuitive de la gestion des opérations complexes. Considérez-le comme un kit de développement bien conçu, chaque composant répondant à un objectif spécifique. Au lieu de jongler avec les appels d'API bruts et la gestion manuelle des invites, le framework fournit une interface claire qui semble naturelle du point de vue du développeur. Il ne s'agit pas seulement de simplifier le processus, il s'agit également de rendre les applications LLM plus fiables et plus faciles à maintenir.

Composants clés de LangChain

À la base, LangChain utilise des chaînes, des séquences d'opérations qui s'articulent pour créer des comportements plus complexes. Ces chaînes font tout, du formatage des invites au traitement des réponses du modèle. Bien que le cadre comprenne des systèmes sophistiqués pour gérer les invites et maintenir le contexte à travers les interactions, je me concentrerai principalement sur les aspects de chaîne et d'invite pour notre générateur d'articles.

Le générateur d'articles

Pour ce projet, je voulais construire quelque chose de pratique, un système capable de générer des articles personnalisés basés sur des paramètres spécifiques tels que le sujet, la longueur, le ton et le public cible. Le modèle Llama3, accessible via Ollama, offrait le bon équilibre entre performances et flexibilité pour cette tâche.

Commencer

La configuration est simple :

  1. Tout d'abord, j'ai installé les packages nécessaires :
pip install langchain langchain-ollama requests
Copier après la connexion
Copier après la connexion
  1. Ensuite, j'ai mis en place Ollama :
    1. J'ai téléchargé et installé Ollama depuis https://ollama.com/blog/llama3
    2. Dans un nouveau terminal, j'ai démarré le serveur Ollama :
ollama serve
Copier après la connexion
Copier après la connexion
  1. J'ai tiré le modèle Llama3 :
ollama pull llama3
Copier après la connexion
Copier après la connexion

Le serveur Ollama doit être exécuté dans son terminal lors de l'utilisation du générateur d'articles. S'il est fermé, le générateur ne pourra pas se connecter au modèle.

Construire les composants de base

Décomposons le fonctionnement de chaque partie du système :

Gestion des connexions

Cette vérification simple permet d'éviter les erreurs d'exécution en détectant rapidement les problèmes de connexion. C'est un moyen fiable de vérifier la connexion au serveur Ollama :

pip install langchain langchain-ollama requests
Copier après la connexion
Copier après la connexion

Configuration du modèle

La configuration du modèle est essentielle pour obtenir le bon équilibre dans notre contenu généré :

ollama serve
Copier après la connexion
Copier après la connexion

Ces paramètres représentent le point idéal que j'ai trouvé après avoir testé diverses combinaisons pour la génération d'articles.

Température (0,7) : Contrôle le caractère aléatoire de la sortie. Une valeur inférieure (comme 0,3) rendrait le texte plus prévisible, tandis qu'une valeur plus élevée (comme 0,9) le rendrait plus créatif. 0,7 est un bon équilibre.

Top_p (0.9) : Ce paramètre, également connu sous le nom d'échantillonnage de noyau, indique au modèle le nombre d'options de mots à prendre en compte. À 0,9, il examine suffisamment d'options pour garder le texte intéressant tout en restant concentré sur le sujet.

num_ctx(4096) : La taille de la fenêtre contextuelle ou la quantité de texte avec laquelle le modèle peut travailler à la fois. Cela laisse suffisamment de place à la fois pour la saisie et pour la sortie d'un article substantiel, car il peut gérer environ 3 000 à 3 500 mots.

Ingénierie rapide

Le modèle d'invite est l'endroit où nous définissons ce que nous attendons du modèle :

ollama pull llama3
Copier après la connexion
Copier après la connexion

Pipeline de génération

L'une des caractéristiques les plus élégantes de LangChain est sa composition simple en chaîne :

def check_ollama_connection():
    """
    Check if Ollama server is running
    """
    try:
        requests.get('http://localhost:11434/api/tags')
        return True
    except requests.exceptions.ConnectionError:
        return False
Copier après la connexion

Cette ligne unique crée un pipeline de génération complet qui gère le formatage des invites, l'interaction du modèle et le traitement des réponses.

Interface de ligne de commande

Pour rendre l'outil convivial, j'ai implémenté une interface en ligne de commande :

llm = OllamaLLM(
    model="llama3",
    temperature=0.7,  # Balances creativity and consistency
    top_p=0.9,       # Helps with text diversity
    num_ctx=4096     # Sets the context window
)
Copier après la connexion

Utilisation pratique

L'utilisation du générateur est très simple : vous exécutez le code et passez les paramètres.

Exemple n°1

article_template = """
You are a professional content writer tasked with creating a comprehensive article.

Topic: {topic}

Writing Requirements:
1. Length: Approximately {word_count} words
2. Style: {tone} tone
3. Target Audience: {audience}
4. Format: Plain text without any markdown notation
5. Additional Details/Requirements: {extra_details}

Content Structure Guidelines:
- Start with an engaging introduction that hooks the reader
- Organize content into clear sections with descriptive headings (not numbered)
- Include relevant examples, statistics, or case studies when appropriate
- Provide practical insights and actionable takeaways
- End with a compelling conclusion that summarizes key points
- Ensure smooth transitions between paragraphs and sections

Writing Style Guidelines:
- Use clear, concise language appropriate for the target audience
- Avoid jargon unless necessary for the target audience
- Incorporate relevant examples and real-world applications
- Maintain an engaging and natural flow throughout the article
- Use active voice predominantly
- Include specific details and evidence to support main points
- Ensure proper paragraph breaks for readability

Additional Notes:
- Do not use any markdown formatting
- Keep paragraphs concise and focused
- Use proper spacing between sections
- If technical terms are used, provide brief explanations
- Include a brief overview of what will be covered at the start

Please write the article now:
"""
Copier après la connexion

L'article généré :

chain = prompt | llm
Copier après la connexion

Exemple n°2

def parse_arguments():
    """
    Parse command line arguments
    """
    parser = argparse.ArgumentParser(description='Generate an article using AI')

    parser.add_argument('--topic', 
                       type=str, 
                       required=True,
                       help='The topic of the article')

    parser.add_argument('--word-count', 
                       type=int, 
                       default=800,
                       help='Target word count (default: 800)')

    parser.add_argument('--tone', 
                       type=str, 
                       default='professional',
                       choices=['professional', 'casual', 'academic', 'informative', 'technical'],
                       help='Writing tone (default: professional)')

    parser.add_argument('--audience', 
                       type=str, 
                       default='general',
                       help='Target audience (default: general)')

    parser.add_argument('--extra-details', 
                       type=str, 
                       default='',
                       help='Additional requirements or details for the article')

    return parser.parse_args()
Copier après la connexion

L'article généré :

python main.py \
  --topic "Benefits of playing board games with friends" \
  --word-count 200 \
  --tone casual \
  --audience "Board games lovers" \
  --extra-details "Avoid markdown notation"
Copier après la connexion

Apprentissages clés

Tout au long de ce projet, j'ai découvert plusieurs informations importantes sur le travail avec LangChain :

  1. Modèles de performances : la première génération prend plus de temps en raison du chargement du modèle, mais les exécutions suivantes sont nettement plus rapides.
  2. Gestion du contexte : une fenêtre contextuelle de 4 096 jetons offre suffisamment d'espace pour la plupart des articles tout en conservant de bonnes performances.
  3. Paramètres de génération : les réglages de température (0,7) et top_p (0,9) offrent un équilibre optimal entre créativité et cohérence.

Pensées finales

La création de ce générateur d'articles a démontré la valeur pratique de LangChain dans le développement de l'IA. Il gère la complexité des interactions LLM tout en donnant aux développeurs la liberté de se concentrer sur la création de fonctionnalités utiles. Le cadre établit un équilibre entre abstraction et contrôle, facilitant ainsi la création d'applications fiables basées sur l'IA.

Pour les chers collègues du domaine ou les seuls passionnés, je suis convaincu que LangChain apporte tout le sens nécessaire au développement, et le meilleur est : ce n'est pas un compromis avec la flexibilité. En pensant que le domaine des outils d'IA connaît une croissance exponentielle, les frameworks comme LangChain deviendront plus précieux pour créer des applications pratiques et prêtes pour la production.

Building an Article Generator with LangChain and LlamaAn AI Developer

Le logo LangChain représentant un perroquet et une chaîne a une signification astucieuse derrière lui. Le perroquet fait référence à la façon dont les LLM sont parfois appelés « perroquets stochastiques » car ils répètent et retravaillent le langage humain. La partie chaîne est une référence ludique à la façon dont le framework permet de « chaîner » le modèle de langage « perroquets » en applications utiles.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Niveaux de force pour chaque ennemi et monstre de R.E.P.O.
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
<🎜>: Dead Rails - Comment apprivoiser les loups
3 Il y a quelques semaines By DDD
Blue Prince: Comment se rendre au sous-sol
3 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1653
14
Tutoriel PHP
1251
29
Tutoriel C#
1224
24
Python vs C: applications et cas d'utilisation comparés Python vs C: applications et cas d'utilisation comparés Apr 12, 2025 am 12:01 AM

Python convient à la science des données, au développement Web et aux tâches d'automatisation, tandis que C convient à la programmation système, au développement de jeux et aux systèmes intégrés. Python est connu pour sa simplicité et son écosystème puissant, tandis que C est connu pour ses capacités de contrôle élevées et sous-jacentes.

Combien de python pouvez-vous apprendre en 2 heures? Combien de python pouvez-vous apprendre en 2 heures? Apr 09, 2025 pm 04:33 PM

Vous pouvez apprendre les bases de Python dans les deux heures. 1. Apprenez les variables et les types de données, 2. Structures de contrôle maître telles que si les instructions et les boucles, 3. Comprenez la définition et l'utilisation des fonctions. Ceux-ci vous aideront à commencer à écrire des programmes Python simples.

Python: jeux, GUIS, et plus Python: jeux, GUIS, et plus Apr 13, 2025 am 12:14 AM

Python excelle dans les jeux et le développement de l'interface graphique. 1) Le développement de jeux utilise Pygame, fournissant des fonctions de dessin, audio et d'autres fonctions, qui conviennent à la création de jeux 2D. 2) Le développement de l'interface graphique peut choisir Tkinter ou Pyqt. Tkinter est simple et facile à utiliser, PYQT a des fonctions riches et convient au développement professionnel.

Le plan Python de 2 heures: une approche réaliste Le plan Python de 2 heures: une approche réaliste Apr 11, 2025 am 12:04 AM

Vous pouvez apprendre les concepts de programmation de base et les compétences de Python dans les 2 heures. 1. Apprenez les variables et les types de données, 2. Flux de contrôle maître (instructions et boucles conditionnelles), 3. Comprenez la définition et l'utilisation des fonctions, 4. Démarrez rapidement avec la programmation Python via des exemples simples et des extraits de code.

Python vs C: courbes d'apprentissage et facilité d'utilisation Python vs C: courbes d'apprentissage et facilité d'utilisation Apr 19, 2025 am 12:20 AM

Python est plus facile à apprendre et à utiliser, tandis que C est plus puissant mais complexe. 1. La syntaxe Python est concise et adaptée aux débutants. Le typage dynamique et la gestion automatique de la mémoire le rendent facile à utiliser, mais peuvent entraîner des erreurs d'exécution. 2.C fournit des fonctionnalités de contrôle de bas niveau et avancées, adaptées aux applications haute performance, mais a un seuil d'apprentissage élevé et nécessite une gestion manuelle de la mémoire et de la sécurité.

Python: Explorer ses applications principales Python: Explorer ses applications principales Apr 10, 2025 am 09:41 AM

Python est largement utilisé dans les domaines du développement Web, de la science des données, de l'apprentissage automatique, de l'automatisation et des scripts. 1) Dans le développement Web, les cadres Django et Flask simplifient le processus de développement. 2) Dans les domaines de la science des données et de l'apprentissage automatique, les bibliothèques Numpy, Pandas, Scikit-Learn et Tensorflow fournissent un fort soutien. 3) En termes d'automatisation et de script, Python convient aux tâches telles que les tests automatisés et la gestion du système.

Python et temps: tirer le meilleur parti de votre temps d'étude Python et temps: tirer le meilleur parti de votre temps d'étude Apr 14, 2025 am 12:02 AM

Pour maximiser l'efficacité de l'apprentissage de Python dans un temps limité, vous pouvez utiliser les modules DateTime, Time et Schedule de Python. 1. Le module DateTime est utilisé pour enregistrer et planifier le temps d'apprentissage. 2. Le module de temps aide à définir l'étude et le temps de repos. 3. Le module de planification organise automatiquement des tâches d'apprentissage hebdomadaires.

Python: automatisation, script et gestion des tâches Python: automatisation, script et gestion des tâches Apr 16, 2025 am 12:14 AM

Python excelle dans l'automatisation, les scripts et la gestion des tâches. 1) Automatisation: La sauvegarde du fichier est réalisée via des bibliothèques standard telles que le système d'exploitation et la fermeture. 2) Écriture de script: utilisez la bibliothèque PSUTIL pour surveiller les ressources système. 3) Gestion des tâches: utilisez la bibliothèque de planification pour planifier les tâches. La facilité d'utilisation de Python et la prise en charge de la bibliothèque riche en font l'outil préféré dans ces domaines.

See all articles