Comprendre GraphRAG (1) : les défis de RAG
RAG (Risk Assessment Grid) est une méthode permettant d'améliorer les grands modèles de langage (LLM) existants avec des sources de connaissances externes pour fournir des réponses plus pertinentes sur le plan contextuel. Dans RAG, le composant de récupération obtient des informations supplémentaires, la réponse est basée sur une source spécifique, puis introduit ces informations dans l'invite LLM afin que la réponse du LLM soit basée sur ces informations (phase d'amélioration). Le RAG est plus économique que d’autres techniques telles que le parage. Il présente également l'avantage de réduire les hallucinations en fournissant un contexte supplémentaire basé sur ces informations (étape d'augmentation) - votre RAG devient la méthode de workflow pour les tâches LLM d'aujourd'hui (telles que la recommandation, l'extraction de texte, l'analyse des sentiments, etc.).
Si nous décomposons cette idée davantage, en fonction de l'intention de l'utilisateur, nous interrogeons généralement une base de données de vecteurs. Les bases de données vectorielles utilisent un espace vectoriel continu pour capturer la relation entre deux concepts à l'aide d'une recherche basée sur la proximité.
Vue d'ensemble de la base de données vectorielles
Dans l'espace vectoriel, les informations, qu'il s'agisse de texte, d'images, d'audio ou de tout autre type, sont converties en vecteurs. Les vecteurs sont des représentations numériques de données dans un espace de grande dimension. Chaque dimension correspond à une caractéristique des données, et les valeurs de chaque dimension reflètent la force ou la présence de cette caractéristique. Grâce à la représentation vectorielle, nous pouvons effectuer des opérations mathématiques, des calculs de distance, des comparaisons de similarité, etc. sur les données. Les valeurs correspondant aux différentes dimensions reflètent la force ou la présence de la fonctionnalité. En prenant les données textuelles comme exemple, chaque document peut être représenté sous forme de vecteur, où chaque dimension représente la fréquence d'un mot dans le document. De cette façon, deux documents peuvent
effectuer des recherches basées sur la proximité dans des bases de données en calculant la distance entre leurs vecteurs, en impliquant et en interrogeant ces bases de données avec un autre vecteur, et en recherchant quelque chose de "proche" de celui-ci dans l'espace vectoriel. La proximité entre les vecteurs est généralement déterminée par des mesures de distance telles que la distance euclidienne, la similarité cosinus ou la distance de Manhattan. La proximité entre les vecteurs est généralement déterminée par des mesures de distance telles que la distance euclidienne, la similarité cosinus ou la distance de Manhattan.
Lorsque vous effectuez une recherche dans une base de données, vous fournissez une requête que le système convertit en vecteur. La base de données calcule ensuite la distance ou la similarité entre ce vecteur de requête et les vecteurs déjà stockés dans la base de données. Les vecteurs proches du vecteur de requête (selon la métrique choisie) sont considérés comme les résultats les plus pertinents. Ces vecteurs les plus proches du vecteur de requête (en fonction de la métrique choisie) sont considérés comme les résultats les plus pertinents.
La recherche basée sur la proximité est particulièrement puissante dans les bases de données vectorielles et convient à des tâches telles que les systèmes de recommandation, la récupération d'informations et la détection d'anomalies.
Cette approche permet au système de fonctionner de manière plus intuitive et de répondre plus efficacement aux requêtes des utilisateurs en comprenant le contexte et la signification plus profonde des données, plutôt que de s'appuyer uniquement sur des correspondances de surface.
Cependant, les applications se connectant à des bases de données pour des recherches avancées présentent certaines limites, telles que la qualité des données, la capacité à gérer des connaissances dynamiques et la transparence.
Limitations de RAG
Selon la taille du document, RAG est grossièrement divisé en trois catégories : si le document est petit, il est accessible contextuellement si le document est volumineux (ou s'il existe plusieurs documents) ; ), des données plus petites sont générées lors de l'interrogation de blocs indexés et utilisés en réponse aux requêtes.
Malgré son succès, RAG présente quelques lacunes.
Les deux principaux indicateurs pour mesurer les performances de RAG sont la perplexité et l'hallucination. La perplexité représente le nombre de choix de mots suivants également possibles dans le processus de génération de texte. Autrement dit, à quel point le modèle de langage est « confus » dans sa sélection. Les hallucinations sont des déclarations fausses ou imaginaires faites par l’IA.
Bien que RAG aide à réduire les hallucinations, il ne les élimine pas. Si vous disposez d'un document petit et concis, vous pouvez réduire la confusion (puisque les options LLM sont peu nombreuses) et réduire les hallucinations (si vous demandez uniquement ce qu'il y a dans le document). Bien entendu, le revers de la médaille est qu’un seul petit document aboutit à une application triviale. Pour les applications plus complexes, vous avez besoin d’un moyen de fournir plus de contexte.
Par exemple, considérons le mot « écorce » - nous avons au moins deux contextes différents :
Contexte de l'arbre : « L'écorce rugueuse d'un chêne le protège du froid. » : "Le chien du voisin aboie bruyamment à chaque fois que quelqu'un passe devant sa maison."
Une façon de fournir plus de contexte est de combiner un RAG avec un graphe de connaissances (un GRAPHRAG).
Dans le graphe de connaissances, ces mots sont liés au contexte et à la signification qui leur sont associés. Par exemple, « écorce » serait connecté aux nœuds représentant « arbre » et « chien ». D'autres connexions peuvent indiquer des actions communes (par exemple, la « protection » de l'arbre, le « bruit » du chien) ou des propriétés (par exemple, la « rugosité » de l'arbre, le « volume » du chien). Ces informations structurées permettent au modèle linguistique de choisir le sens approprié en fonction d'autres mots de la phrase ou du thème général de la conversation.
Dans la section suivante, nous verrons les limites de RAG et comment GRAPHRAG les aborde.
Titre original : Comprendre GraphRAG – 1 : Les défis de RAG
Auteur original : ajitjaokar
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Traducteur | Bugatti Review | Chonglou Cet article décrit comment utiliser le moteur d'inférence GroqLPU pour générer des réponses ultra-rapides dans JanAI et VSCode. Tout le monde travaille à la création de meilleurs grands modèles de langage (LLM), tels que Groq, qui se concentre sur le côté infrastructure de l'IA. Une réponse rapide de ces grands modèles est essentielle pour garantir que ces grands modèles réagissent plus rapidement. Ce didacticiel présentera le moteur d'analyse GroqLPU et comment y accéder localement sur votre ordinateur portable à l'aide de l'API et de JanAI. Cet article l'intégrera également dans VSCode pour nous aider à générer du code, à refactoriser le code, à saisir la documentation et à générer des unités de test. Cet article créera gratuitement notre propre assistant de programmation d’intelligence artificielle. Introduction au moteur d'inférence GroqLPU Groq

LeanCopilot, cet outil mathématique formel vanté par de nombreux mathématiciens comme Terence Tao, a encore évolué ? Tout à l'heure, Anima Anandkumar, professeur à Caltech, a annoncé que l'équipe avait publié une version étendue de l'article LeanCopilot et mis à jour la base de code. Adresse de l'article image : https://arxiv.org/pdf/2404.12534.pdf Les dernières expériences montrent que cet outil Copilot peut automatiser plus de 80 % des étapes de preuve mathématique ! Ce record est 2,3 fois meilleur que le précédent record d’Esope. Et, comme auparavant, il est open source sous licence MIT. Sur la photo, il s'agit de Song Peiyang, un garçon chinois.

Source de l'image@visualchinesewen|Wang Jiwei De « humain + RPA » à « humain + IA générative + RPA », comment le LLM affecte-t-il l'interaction homme-machine RPA ? D'un autre point de vue, comment le LLM affecte-t-il la RPA du point de vue de l'interaction homme-machine ? La RPA, qui affecte l'interaction homme-machine dans le développement de programmes et l'automatisation des processus, sera désormais également modifiée par le LLM ? Comment le LLM affecte-t-il l’interaction homme-machine ? Comment l’IA générative modifie-t-elle l’interaction homme-machine de la RPA ? Apprenez-en davantage dans un article : L'ère des grands modèles arrive, et l'IA générative basée sur LLM transforme rapidement l'interaction homme-machine RPA ; l'IA générative redéfinit l'interaction homme-machine, et LLM affecte les changements dans l'architecture logicielle RPA. Si vous demandez quelle est la contribution de la RPA au développement et à l’automatisation des programmes, l’une des réponses est qu’elle a modifié l’interaction homme-machine (HCI, h).

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Plaud, la société derrière le Plaud Note AI Voice Recorder (disponible sur Amazon pour 159 $), a annoncé un nouveau produit. Surnommé NotePin, l’appareil est décrit comme une capsule mémoire AI, et comme le Humane AI Pin, il est portable. Le NotePin est

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

La génération améliorée de récupération de graphiques (GraphRAG) devient progressivement populaire et est devenue un complément puissant aux méthodes de recherche vectorielles traditionnelles. Cette méthode tire parti des caractéristiques structurelles des bases de données graphiques pour organiser les données sous forme de nœuds et de relations, améliorant ainsi la profondeur et la pertinence contextuelle des informations récupérées. Les graphiques présentent un avantage naturel dans la représentation et le stockage d’informations diverses et interdépendantes, et peuvent facilement capturer des relations et des propriétés complexes entre différents types de données. Les bases de données vectorielles sont incapables de gérer ce type d'informations structurées et se concentrent davantage sur le traitement de données non structurées représentées par des vecteurs de grande dimension. Dans les applications RAG, la combinaison de données graphiques structurées et de recherche de vecteurs de texte non structuré nous permet de profiter des avantages des deux en même temps, ce dont discutera cet article. structure

À mesure que les performances des modèles de langage open source à grande échelle continuent de s'améliorer, les performances d'écriture et d'analyse du code, des recommandations, du résumé de texte et des paires questions-réponses (QA) se sont toutes améliorées. Mais lorsqu'il s'agit d'assurance qualité, le LLM ne répond souvent pas aux problèmes liés aux données non traitées, et de nombreux documents internes sont conservés au sein de l'entreprise pour garantir la conformité, les secrets commerciaux ou la confidentialité. Lorsque ces documents sont interrogés, LLM peut halluciner et produire un contenu non pertinent, fabriqué ou incohérent. Une technique possible pour relever ce défi est la génération augmentée de récupération (RAG). Cela implique le processus d'amélioration des réponses en référençant des bases de connaissances faisant autorité au-delà de la source de données de formation pour améliorer la qualité et la précision de la génération. Le système RAG comprend un système de récupération permettant de récupérer des fragments de documents pertinents du corpus
