GraphRAG verstehen (1): Herausforderungen von RAG
RAG (Risk Assessment Grid) ist eine Methode zur Erweiterung vorhandener großer Sprachmodelle (LLM) mit externen Wissensquellen, um kontextbezogenere Antworten zu liefern. In RAG erhält die Abrufkomponente zusätzliche Informationen, die Antwort basiert auf einer bestimmten Quelle und speist diese Informationen dann in die LLM-Eingabeaufforderung ein, sodass die Antwort des LLM auf diesen Informationen basiert (Verbesserungsphase). RAG ist im Vergleich zu anderen Techniken wie dem Trimmen wirtschaftlicher. Es hat auch den Vorteil, Halluzinationen zu reduzieren, indem zusätzlicher Kontext basierend auf diesen Informationen bereitgestellt wird (Augmentationsphase) – Ihr RAG wird zur Workflow-Methode für die heutigen LLM-Aufgaben (wie Empfehlung, Textextraktion, Stimmungsanalyse usw.).
Wenn wir diese Idee basierend auf der Benutzerabsicht weiter aufschlüsseln, fragen wir normalerweise eine Datenbank mit Vektoren ab. Vektordatenbanken verwenden einen kontinuierlichen Vektorraum, um die Beziehung zwischen zwei Konzepten mithilfe einer auf Nähe basierenden Suche zu erfassen.
Übersicht über die Vektordatenbank
Im Vektorraum werden Informationen, egal ob Text, Bilder, Audio oder jede andere Art, in Vektoren umgewandelt. Vektoren sind numerische Darstellungen von Daten in einem hochdimensionalen Raum. Jede Dimension entspricht einem Merkmal der Daten, und die Werte in jeder Dimension spiegeln die Stärke oder das Vorhandensein dieses Merkmals wider. Durch die Vektordarstellung können wir mathematische Operationen, Abstandsberechnungen, Ähnlichkeitsvergleiche usw. an den Daten durchführen. Die den verschiedenen Dimensionen entsprechenden Werte spiegeln die Stärke oder das Vorhandensein des Merkmals wider. Am Beispiel von Textdaten kann jedes Dokument als Vektor dargestellt werden, wobei jede Dimension die Häufigkeit eines Wortes im Dokument darstellt. Auf diese Weise können zwei Dokumente
auf Nähe basierende Suchen in Datenbanken durchführen, indem sie den Abstand zwischen ihren Vektoren berechnen, diese Datenbanken einbeziehen und mit einem anderen Vektor abfragen und im Vektorraumvektor nach etwas suchen, das diesem „nahe“ ist. Die Nähe zwischen Vektoren wird normalerweise durch Abstandsmaße wie den euklidischen Abstand, die Kosinusähnlichkeit oder den Manhattan-Abstand bestimmt. Die Nähe zwischen Vektoren wird normalerweise durch Abstandsmaße wie den euklidischen Abstand, die Kosinusähnlichkeit oder den Manhattan-Abstand bestimmt.
Wenn Sie eine Suche in einer Datenbank durchführen, stellen Sie eine Abfrage bereit, die das System in einen Vektor umwandelt. Die Datenbank berechnet dann den Abstand oder die Ähnlichkeit zwischen diesem Abfragevektor und bereits in der Datenbank gespeicherten Vektoren. Vektoren, die nahe am Abfragevektor liegen (gemäß der gewählten Metrik), gelten als die relevantesten Ergebnisse. Die Vektoren, die dem Abfragevektor (basierend auf der gewählten Metrik) am nächsten kommen, gelten als die relevantesten Ergebnisse.
Die auf Nähe basierende Suche ist in Vektordatenbanken besonders leistungsstark und eignet sich für Aufgaben wie Empfehlungssysteme, Informationsabruf und Anomalieerkennung.
Dieser Ansatz ermöglicht es dem System, intuitiver zu arbeiten und effektiver auf Benutzeranfragen zu reagieren, indem es den Kontext und die tiefere Bedeutung der Daten versteht, anstatt sich ausschließlich auf oberflächliche Übereinstimmungen zu verlassen.
Allerdings gibt es einige Einschränkungen bei Anwendungen, die für erweiterte Suchen eine Verbindung zu Datenbanken herstellen, wie z. B. Datenqualität, Fähigkeit zum Umgang mit dynamischem Wissen und Transparenz.
Einschränkungen von RAG
Je nach Größe des Dokuments wird RAG grob in drei Kategorien eingeteilt: Wenn das Dokument klein ist, kann kontextuell darauf zugegriffen werden; wenn das Dokument groß ist (oder mehrere Dokumente vorhanden sind). ) werden bei der Abfrage von Blöcken, die indiziert und als Antwort auf Abfragen verwendet werden, kleinere Daten generiert.
Trotz seines Erfolgs weist RAG einige Mängel auf.
Die beiden Hauptindikatoren zur Messung der Leistung von RAG sind Ratlosigkeit und Halluzination. Ratlosigkeit stellt die Anzahl der gleichermaßen möglichen nächsten Wortwahlen im Textgenerierungsprozess dar. Das heißt, wie „verwirrt“ das Sprachmodell in seiner Auswahl ist. Halluzinationen sind unwahre oder erfundene Aussagen der KI.
Während RAG hilft, Halluzinationen zu reduzieren, beseitigt es sie nicht. Wenn Sie ein kleines und prägnantes Dokument haben, können Sie Verwirrung vermeiden (da es nur wenige LLM-Optionen gibt) und Halluzinationen reduzieren (wenn Sie nur fragen, was in dem Dokument steht). Die Kehrseite ist natürlich, dass ein einzelnes kleines Dokument zu einer trivialen Anwendung führt. Für komplexere Anwendungen benötigen Sie eine Möglichkeit, mehr Kontext bereitzustellen.
Betrachten Sie zum Beispiel das Wort „Rinde“ – wir haben mindestens zwei verschiedene Kontexte:
Baumkontext: „Die raue Rinde einer Eiche schützt sie vor der Kälte.“
Hundekontext : „Der Hund des Nachbarn bellt jedes Mal laut, wenn jemand an seinem Haus vorbeigeht.“
Eine Möglichkeit, mehr Kontext bereitzustellen, besteht darin, einen RAG mit einem Wissensgraphen (einem GRAPHRAG) zu kombinieren.
Im Wissensgraphen werden diese Wörter mit dem Kontext und der damit verbundenen Bedeutung verknüpft. Beispielsweise würde „Rinde“ mit Knoten verbunden, die „Baum“ und „Hund“ darstellen. Andere Zusammenhänge können auf gemeinsame Handlungen hinweisen (z. B. der „Schutz“ des Baums, das „Lärmmachen“ des Hundes) oder Eigenschaften (z. B. die „Rauheit“ des Baums, die „Lautheit“ des Hundes). Diese strukturierten Informationen ermöglichen es dem Sprachmodell, die passende Bedeutung basierend auf anderen Wörtern im Satz oder dem Gesamtthema der Konversation auszuwählen.
Im nächsten Abschnitt werden wir die Einschränkungen von RAG sehen und wie GRAPHRAG diese angeht.
Originaltitel: Understanding GraphRAG – 1: Die Herausforderungen von RAG
Originalautor: ajitjaokar
Das obige ist der detaillierte Inhalt vonGraphRAG verstehen (1): Herausforderungen von RAG. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Übersetzer |. Bugatti Review |. Chonglou Dieser Artikel beschreibt, wie man die GroqLPU-Inferenz-Engine verwendet, um ultraschnelle Antworten in JanAI und VSCode zu generieren. Alle arbeiten daran, bessere große Sprachmodelle (LLMs) zu entwickeln, beispielsweise Groq, der sich auf die Infrastrukturseite der KI konzentriert. Die schnelle Reaktion dieser großen Modelle ist der Schlüssel, um sicherzustellen, dass diese großen Modelle schneller reagieren. In diesem Tutorial wird die GroqLPU-Parsing-Engine vorgestellt und erläutert, wie Sie mithilfe der API und JanAI lokal auf Ihrem Laptop darauf zugreifen können. In diesem Artikel wird es auch in VSCode integriert, um uns dabei zu helfen, Code zu generieren, Code umzugestalten, Dokumentation einzugeben und Testeinheiten zu generieren. In diesem Artikel erstellen wir kostenlos unseren eigenen Programmierassistenten für künstliche Intelligenz. Einführung in die GroqLPU-Inferenz-Engine Groq

LeanCopilot, dieses formale Mathematikwerkzeug, das von vielen Mathematikern wie Terence Tao gelobt wurde, hat sich erneut weiterentwickelt? Soeben gab Caltech-Professorin Anima Anandkumar bekannt, dass das Team eine erweiterte Version des LeanCopilot-Papiers veröffentlicht und die Codebasis aktualisiert hat. Adresse des Bildpapiers: https://arxiv.org/pdf/2404.12534.pdf Die neuesten Experimente zeigen, dass dieses Copilot-Tool mehr als 80 % der mathematischen Beweisschritte automatisieren kann! Dieser Rekord ist 2,3-mal besser als der vorherige Basiswert von Aesop. Und wie zuvor ist es Open Source unter der MIT-Lizenz. Auf dem Bild ist er Song Peiyang, ein chinesischer Junge

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Bildquelle@visualchinesewen|Wang Jiwei Wie wirkt sich LLM von „Mensch + RPA“ auf „Mensch + generative KI + RPA“ auf die RPA-Mensch-Computer-Interaktion aus? Wie wirkt sich LLM aus einer anderen Perspektive auf RPA aus der Perspektive der Mensch-Computer-Interaktion aus? Wird RPA, das die Mensch-Computer-Interaktion in der Programmentwicklung und Prozessautomatisierung betrifft, nun auch durch LLM verändert? Wie wirkt sich LLM auf die Mensch-Computer-Interaktion aus? Wie verändert generative KI die RPA-Mensch-Computer-Interaktion? Erfahren Sie mehr darüber in einem Artikel: Die Ära der großen Modelle steht vor der Tür und die auf LLM basierende generative KI verändert die RPA-Mensch-Computer-Interaktion rasant. Die generative KI definiert die Mensch-Computer-Interaktion neu und LLM beeinflusst die Veränderungen in der RPA-Softwarearchitektur. Wenn man fragt, welchen Beitrag RPA zur Programmentwicklung und -automatisierung leistet, lautet eine der Antworten, dass es die Mensch-Computer-Interaktion (HCI, h

Plaud, das Unternehmen hinter dem Plaud Note AI Voice Recorder (erhältlich bei Amazon für 159 US-Dollar), hat ein neues Produkt angekündigt. Das als NotePin bezeichnete Gerät wird als KI-Speicherkapsel beschrieben und ist wie der Humane AI Pin tragbar. Der NotePin ist

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Graph Retrieval Enhanced Generation (GraphRAG) erfreut sich zunehmender Beliebtheit und hat sich zu einer leistungsstarken Ergänzung zu herkömmlichen Vektorsuchmethoden entwickelt. Diese Methode nutzt die strukturellen Merkmale von Graphdatenbanken, um Daten in Form von Knoten und Beziehungen zu organisieren und dadurch die Tiefe und kontextbezogene Relevanz der abgerufenen Informationen zu verbessern. Diagramme haben einen natürlichen Vorteil bei der Darstellung und Speicherung vielfältiger und miteinander verbundener Informationen und können problemlos komplexe Beziehungen und Eigenschaften zwischen verschiedenen Datentypen erfassen. Vektordatenbanken können diese Art von strukturierten Informationen nicht verarbeiten und konzentrieren sich mehr auf die Verarbeitung unstrukturierter Daten, die durch hochdimensionale Vektoren dargestellt werden. In RAG-Anwendungen können wir durch die Kombination strukturierter Diagrammdaten und unstrukturierter Textvektorsuche gleichzeitig die Vorteile beider nutzen, worauf in diesem Artikel eingegangen wird. Struktur

Da sich die Leistung groß angelegter Open-Source-Sprachmodelle weiter verbessert, hat sich auch die Leistung beim Schreiben und Analysieren von Code, Empfehlungen, Textzusammenfassungen und Frage-Antwort-Paaren (QA) verbessert. Aber wenn es um die Qualitätssicherung geht, mangelt es LLM oft an Problemen im Zusammenhang mit ungeschulten Daten, und viele interne Dokumente werden im Unternehmen aufbewahrt, um Compliance, Geschäftsgeheimnisse oder Datenschutz zu gewährleisten. Wenn diese Dokumente abgefragt werden, kann LLM Halluzinationen hervorrufen und irrelevante, erfundene oder inkonsistente Inhalte produzieren. Eine mögliche Technik zur Bewältigung dieser Herausforderung ist Retrieval Augmented Generation (RAG). Dabei geht es darum, die Antworten durch Verweise auf maßgebliche Wissensdatenbanken über die Trainingsdatenquelle hinaus zu verbessern, um die Qualität und Genauigkeit der Generierung zu verbessern. Das RAG-System umfasst ein Retrieval-System zum Abrufen relevanter Dokumentfragmente aus dem Korpus
