Maison > Périphériques technologiques > IA > Cognee Llamaindex: Construire des pipelines de graphrag puissants

Cognee Llamaindex: Construire des pipelines de graphrag puissants

Christopher Nolan
Libérer: 2025-03-05 10:20:12
original
443 Les gens l'ont consulté

Lors de la connexion des connaissances externes à des modèles de grandes langues (LLM), les développeurs se confrontent souvent à l'intégration des données de nombreuses sources - certaines structurées, une grande partie non structurée - tout en retournant toujours des informations rapides et précises. Ce défi est au cœur de la génération (RAG) de la récupération (RAG), qui offre un moyen convaincant pour les LLM de tirer des données spécifiques au domaine à la demande. Mais à mesure que les échelles de données et le besoin de connexions précises se développent, les pipelines de chiffon peuvent devenir lourds.

C'est là que Cognee et Llamaindex interviennent, introduisant un système qui transforme le chiffon standard en graphrag - une approche qui non seulement récupère le texte pertinent mais crée également des relations plus riches basées sur des graphiques entre les points de données. Essentiellement, il se déplace au-delà de la récupération statique et basée sur des morceaux et offre une «carte» globale de connaissances qui peuvent alimenter des réponses plus robustes et contextuellement précises.

Objectifs d'apprentissage

  • Comprendre les principes fondamentaux de la génération de la récupération (RAG) et son rôle dans l'amélioration des capacités LLM.
  • Apprenez comment Cognee et Llamaindex permettent à Graphrag de récupérer les connaissances plus structurées et pluscieuses.
  • Explorez le processus de construction d'un pipeline Graphrag, de l'ingestion de données à la requête basée sur le graphique.
  • Découvrez les avantages de la récupération basée sur les graphiques sur les méthodes traditionnelles basées sur des morceaux dans les systèmes de chiffon.
  • Gardez un aperçu des applications pratiques et des stratégies de déploiement pour Graphrag dans les flux de travail de l'IA du monde réel.

Cet article a été publié dans le cadre du Data Science Blogathon.

Table des matières

  • Rag en bref
  • Présentation de la conception de cognee et de llamaindex
  • Un pipeline graphrag: un aperçu conceptuel
  • pourquoi choisir le Cognee et Llamaindex?
  • Au-delà du texte: visualiser le graphique Cognee
  • Graphrag
  • Conclusion
  • Questions fréquemment posées

Rag en bref

La génération auprès de la récupération (RAG) injecte des connaissances externes dans des modèles de grands langues pendant l'inférence. En convertissant les données en intégres vectoriels et en les stockant dans une base de données vectorielle, les systèmes de chiffon permettent aux LLM de raisonner sur les informations spécifiques au domaine qu'ils ne possèdent pas intrinsèquement. Les principaux avantages comprennent:

  • Connexion des données spécifiques au domaine à LLMS : combler l'écart entre les modèles de langage à usage général et les connaissances spécialisées.
  • Réduire les coûts : permettant une utilisation plus ciblée de LLM en récupérant uniquement les données pertinentes pour une requête.
  • Amélioration de la précision : Fournir des réponses ciblées et adaptées de domaine qui dépassent les capacités des LLM de base.

Cependant, le chiffon traditionnel peut nécessiter de jongler avec plusieurs outils, traitant des métadonnées complexes et gérer des mises à jour vers des ensembles de données en constante évolution. De plus, la méthodologie «Chunk and Embed» de Standard RAG peut perdre un contexte global car chaque morceau est largement traité isolément.

Présentation de Cognee et Llamaindex

Cognee est un cadre de gestion des connaissances et de la mémoire qui s'inspire de la façon dont les humains créent des cartes mentales. En modélisant des objets, des concepts et des relations en tant que structures de graphiques, il aide à apporter la structure et le contexte aux données brutes, rendant les connaissances plus navigables et interopérables.

Llamaindex le complète en servant de bibliothèque d'intégration de données polyvalents, en canalisant de manière transparente les données provenant de diverses sources, notamment des bases de données, des API et du texte non structuré - en LLMS. Que vous ayez affaire à des PDF, des tables SQL ou des points de terminaison JSON, Llamaindex peut unifier ces flux d'informations dans un pipeline cohérent.

Pourquoi Cognee?

  • Modèle d'inspiration humaine de la connaissance : Le cognine imite les fonctions cognitives, représentant des objets et des concepts dans un graphique qui met en évidence leurs relations.
  • couches sémantiques robustes : En formalisant ces graphiques dans les ontologies, les développeurs peuvent systématiquement capturer le sens et les relations.
  • Architecture modulaire : Choisissez le magasin LLM ou vectoriel que vous préférez (par exemple, Openai, modèles locaux open source, redis ou votre base de données de graphiques préférée) et les connecter parfaitement dans Cognee.

Cognee Llamaindex = Graphrag

combinant Cognee et Llamaindex crée Graphrag, un système qui:

  • transforme les données brutes en graphiques : Plutôt que d'incorporer des morceaux de texte, il construit une couche sémantique de concepts, de nœuds et de relations.
  • génère précisément les ontologies flexibles et spécifiques au domaine : vous permettant de modéliser tout cas d'utilisation vertical ou spécialisé.
  • permet une couche déterministe : assurer des résultats plus cohérents et explicables grâce à la logique et aux relations basées sur les graphiques.

Construire un pipeline Graphrag: un aperçu conceptuel

Bien qu'un flux de travail de bout en bout comprenne un code Python simple (que nous sauterons ici), ci-dessous est un aperçu conceptuel de la façon dont vous construiriez un pipeline Graphrag avec Cognee et Llamaindex:

Étape 1: Configurez l'environnement

Vous installerez et configurerez les dépendances nécessaires - Cognee, Llamaindex et tous les fournisseurs de bases de données et de base de données choisies. Cette étape initiale garantit que votre environnement a tout nécessaire pour gérer les incorporations vectorielles, le stockage de graphiques et l'inférence LLM.

!pip install llama-index-graph-rag-cognee==0.1.2

# Import required libraries
import os
import asyncio

import cognee
from llama_index.core import Document
from llama_index.graph_rag.cognee import CogneeGraphRAG

# Set API key for OpenAI
if "OPENAI_API_KEY" not in os.environ:
    os.environ["OPENAI_API_KEY"] = ""
Copier après la connexion
Copier après la connexion

Étape 2: Préparez votre ensemble de données

Que vous ayez de courts extraits de texte ou des ensembles de documents entiers, vous collectez ces données et les chargerez dans une collection. Llamaindex peut gérer divers formats de fichiers et sources de données, mais vous fournira généralement le texte dans des segments gérables ou des «documents».

documents = [
    Document(
        text="Jessica Miller, Experienced Sales Manager with a strong track record in driving sales growth and building high-performing teams."
    ),
    Document(
        text="David Thompson, Creative Graphic Designer with over 8 years of experience in visual design and branding."
    ),
]
Copier après la connexion

Étape 3: Initialiser le cognongraphrag

Ensuite, vous créez un objet CogneeGraphrag, en spécifiant comment vous stockez votre graphique (par exemple, en mémoire avec NetworkX, ou dans une base de données de graphe dédiée) et votre stockage vectoriel (par exemple, LancedB, PineCone ou une autre base de données vectorielle). Vous choisissez également votre fournisseur LLM, comme OpenAI ou un modèle local, ainsi que les clés API pertinentes.

cogneeRAG = CogneeGraphRAG(
    llm_api_key=os.environ["OPENAI_API_KEY"],
    llm_provider="openai",
    llm_model="gpt-4o-mini",
    graph_db_provider="networkx",
    vector_db_provider="lancedb",
    relational_db_provider="sqlite",
    relational_db_name="cognee_db",
)
Copier après la connexion

Étape 4: Ajouter et traiter les données

Vous chargez vos documents dans le système, permettant à Cognee et Llamaindex de les analyser et de les intégrer. Une fois les données en place, vous invoquez une étape de transformation qui analyse le texte et extrait des entités, des relations et des métadonnées significatifs. Ceux-ci deviennent des nœuds et des bords dans votre graphique de connaissances.

# Load documents into CogneeGraphRAG
await cogneeRAG.add(documents, "test")
Copier après la connexion

Étape 5: effectuez des recherches

Avec un graphique de connaissances construit sur vos données, vous pouvez effectuer deux principaux types de requêtes:

  • Recherche basée sur les graphiques de connaissances - exploite les relations globales dans le graphique pour voir comment les éléments d'information se lient ensemble.
  • Recherche basée sur les chiffons - Utilise la récupération de morceaux traditionnels pour trouver des passages de texte pertinents sans nécessairement tirer parti du contexte du graphique global.

L'avantage de l'approche basée sur le graphique est qu'elle peut considérer le contexte et les relations entre tous les documents. Par exemple, si plusieurs documents font référence à une personne ou au concept, l'approche du graphique aide à les unifier et à les référencer pour une réponse plus complète.

# Answer prompt based on knowledge graph approach:

search_results = await cogneeRAG.search("Tell me who are the people mentioned?")

print("\n\nAnswer based on knowledge graph:\n")
for result in search_results:
    print(f"{result}\n")
    
# Using the graph search above gives the following result:

#Answer based on knowledge graph:
#The people mentioned are: David Thompson and Jessica Miller.

#Answer prompt based on RAG approach:
search_results = await cogneeRAG.rag_search("Tell me who are the people mentioned?")

print("\n\nAnswer based on RAG:\n")
for result in search_results:
    print(f"{result}\n")

#Using the RAG search above gives the following result:

#Answer based on RAG:
#Jessica Miller
Copier après la connexion

Étape 6: Explorez les nœuds connexes

Au-delà de la récupération directe, Graphrag vous permet de naviguer dans les relations. Supposons que vous souhaitiez voir tous les concepts ou les personnes liées à une entité spécifique, le graphique de connaissances peut révéler ces connexions, offrant des informations plus profondes.

À la fin de ces étapes, votre pipeline n'est plus restreint par les contraintes au niveau des morceaux du chiffon standard. Au lieu de cela, votre LLM peut tirer parti d'une vision robuste et interconnectée des connaissances. Cela conduit à des réponses plus perspicaces, cohérentes et riches en contexte.

!pip install llama-index-graph-rag-cognee==0.1.2

# Import required libraries
import os
import asyncio

import cognee
from llama_index.core import Document
from llama_index.graph_rag.cognee import CogneeGraphRAG

# Set API key for OpenAI
if "OPENAI_API_KEY" not in os.environ:
    os.environ["OPENAI_API_KEY"] = ""
Copier après la connexion
Copier après la connexion

Pourquoi choisir Cognee et Llamaindex?

Cognee et Llamaindex combinent un raisonnement basé sur des graphiques avec l'intégration flexible des données, transformant le chiffon traditionnel en une approche plus structurée et perspicace. Cette synergie améliore la récupération des connaissances, améliore la compréhension contextuelle et simplifie le déploiement pour les applications alimentées par l'IA.

Synergisé le cadre et la mémoire

Graphrag facilite la mémoire à long terme, à court terme et spécifique au domaine au sein de vos agents. En maintenant des connaissances détaillées dans une structure basée sur des graphiques, les agents peuvent rappeler le contexte plus précisément au fil du temps et s'adapter à de nouvelles informations de manière transparente.

Interrogation améliorée et perspectives

Avec une vue plus holistique, vos requêtes peuvent automatiquement devenir plus sophistiquées. Au fil du temps, le graphique peut auto-optimiser ses relations, ce qui donne des données plus riches et plus connectées. Au lieu de retourner un seul extrait à partir d'un seul morceau, votre agent peut synthétiser plusieurs références ou unifier des faits dispersés.

Déploiement simplifié

Cognee vise à abstraction de la complexité. Il est livré avec des intégrations standard pour les LLM, les bases de données vectorielles et les magasins de graphiques, ce qui signifie que vous pouvez déployer un pipeline Graphrag avec des frais généraux minimes. Cela garantit que vous passez plus de temps à explorer les idées plutôt que de faire face aux tracas d'infrastructure.

Cognee Llamaindex: Construire des pipelines de graphrag puissants

Au-delà du texte: visualiser le graphique de connaissances

L'une des plus grandes forces de Graphrag réside dans la façon dont il transforme le texte en une couche sémantique dynamique. Imaginez chaque entité (par exemple, une personne, un emplacement, un concept) représenté comme un nœud. Les bords peuvent capturer des références - comme le rôle d'une personne dans une organisation ou une relation à un autre concept.

Cette visualisation aide les développeurs et les parties prenantes:

  • Identifier les modèles : Voir les grappes de concepts ou entités étroitement liés.
  • Valider et Affiner : Repérez rapidement les inexactitudes dans les relations et les corriger dans votre pipeline de données.
  • Communiquez des informations : Transmettez les interdépendances complexes dans un format plus intuitif.

En pratique, vous pouvez voir un nœud pour chaque personne avec des bords les liant à des rôles, des emplacements ou des réalisations, tous épelés dans un diagramme de graphe cohérent - beaucoup plus clair que de rechercher plusieurs fragments de texte pour cette information.

Déverrouiller le potentiel de Graphrag

Intégrer des données structurées et non structurées dans les flux de travail AI n'est pas une mince affaire. Mais en unifiant la puissance de Llamaindex pour l'ingestion de données avec la couche sémantique graphique de Cognee, vous obtenez une approche rationalisée qui rend l'ensemble du pipeline plus efficace, plus cohérent et finalement plus perspicace.

Qu'est-ce que cela signifie pour votre entreprise ou votre recherche ?

  • Vous pouvez apporter n'importe quelle forme de données - être des listes de produits, des articles scientifiques ou des interactions client - dans un seul graphique de connaissances.
  • Votre LLM n'est plus «deviner» des passages en morceaux; il déduit d'une carte de connaissances holistique.
  • Vous pouvez vous concentrer sur des tâches de niveau supérieur telles que le raffinage des ontologies, la visualisation des relations et l'itération de la meilleure façon d'interpréter vos données.

Que vous soyez un développeur en solo pour construire un chatbot spécialisé ou une équipe d'entreprise architectant une plate-forme de connaissances, Graphrag propose une base robuste et flexible.

Vous voulez en savoir plus ou l'essayer vous-même? Vous pouvez exécuter une démo détaillée dans Google Colab, où vous verrez exactement comment configurer votre environnement, charger des données, créer le graphique de connaissances et exécuter des requêtes.

Bottom Line: Si vous êtes sérieux à exploiter le plein potentiel de vos données en tandem avec des modèles de langage avancé, l'approche Graphrag de Cognee et Llamaindex est la prochaine étape. Avec quelques lignes de configuration et quelques données bien structurées, vous pouvez transformer le texte brut en intelligence exploitable - réduisant l'écart entre les documents non structurés et les informations vraiment «intelligentes».

Conclusion

Cognee et Llamaindex offrent une combinaison puissante pour améliorer les systèmes de chiffon en intégrant la récupération des connaissances structurées aux techniques d'indexation avancées. Cette synergie améliore la compréhension contextuelle, l'efficacité de récupération et l'adaptabilité dans diverses applications d'IA. En tirant parti du raisonnement graphique et de l'intégration flexible des données, les organisations peuvent créer des solutions d'IA plus intelligentes, évolutives et précises. Au fur et à mesure que les systèmes de connaissances axés sur l'IA évoluent, des outils comme Cognee et Llamaindex joueront un rôle crucial dans la formation de l'avenir de la récupération de l'information.

Les plats clés

  • Cognee et Llamaindex améliorent les systèmes de chiffon avec la récupération des connaissances structurées.
  • Le raisonnement basé sur les graphiques améliore la compréhension contextuelle et la prise de décision.
  • L'intégration des données flexibles assure l'adaptabilité à travers diverses applications d'IA.
  • La combinaison stimule l'efficacité de récupération et la précision de la réponse.
  • Les futurs systèmes d'IA s'appuieront sur de tels outils pour optimiser les flux de travail basés sur les connaissances.

Les questions fréquemment posées

Q1. Qu'est-ce que Graphrag, et en quoi est-il différent du chiffon standard?

a. Graphrag est une variation de la génération (RAG) (RAG) de la récupération qui utilise un graphique de connaissances pour stocker et récupérer des informations, plutôt que de compter uniquement sur du texte en morceaux et une base de données vectorielle. Cette approche conserve plus de contexte global, permettant des informations plus riches et une meilleure référence sur plusieurs documents ou sources de données.

Q2. Qu'est-ce que Cognee, et pourquoi devrais-je l'utiliser?

a. Cognee est un cadre de gestion des connaissances et de la mémoire inspiré de la façon dont les humains créent des cartes mentales du monde. Il transforme les données non structurées en une couche sémantique basée sur des graphiques, ce qui facilite le stockage, la gestion et la récupération de relations complexes. Avec Cognee, vous gagnez:
Modélisation d'inspiration humaine des concepts et relations
Structures graphiques cohérentes et explicables
Intégration transparente avec votre choix de LLM, de magasin vectoriel ou de base de données

Q3. Quel rôle Llamaindex joue-t-il dans cette configuration?

a. Llamaindex (anciennement GPT Index) est une bibliothèque d'intégration du LLMS à diverses sources de données. Il gère les tâches comme l'analyse des documents, l'indexation et l'interrogation, vous permettant de nourrir du contenu non structuré (PDF, pages Web, données JSON, etc.) dans votre LLM de manière rationalisée. Lorsqu'elle est associée à Cognee, Llamaindex aide à structurer les données avant d'être converti en représentations basées sur des graphiques.

Q4. Comment Graphrag améliore-t-il les résultats de la requête par rapport au chiffon traditionnel?

a. Le chiffon traditionnel incorpore des morceaux de texte indépendamment, ce qui peut perdre le contexte mondial si les informations sont réparties sur différents documents. Graphrag relie les concepts connexes dans un seul graphique de connaissances, permettant au LLM de comprendre des relations plus larges. En conséquence, le système peut fournir des réponses plus complètes et riches en contexte, en particulier pour les questions qui impliquent des informations provenant de plusieurs sources.

Le média présenté dans cet article ne appartient pas à l'analyse vidhya et est utilisé à la discrétion de l'auteur.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal