Inhaltsverzeichnis
Übersicht über die Vektordatenbank
Einschränkungen von RAG
Heim Technologie-Peripheriegeräte KI GraphRAG verstehen (1): Herausforderungen von RAG

GraphRAG verstehen (1): Herausforderungen von RAG

Apr 30, 2024 pm 07:10 PM
llm rag

RAG (Risk Assessment Grid) ist eine Methode zur Erweiterung vorhandener großer Sprachmodelle (LLM) mit externen Wissensquellen, um kontextbezogenere Antworten zu liefern. In RAG erhält die Abrufkomponente zusätzliche Informationen, die Antwort basiert auf einer bestimmten Quelle und speist diese Informationen dann in die LLM-Eingabeaufforderung ein, sodass die Antwort des LLM auf diesen Informationen basiert (Verbesserungsphase). RAG ist im Vergleich zu anderen Techniken wie dem Trimmen wirtschaftlicher. Es hat auch den Vorteil, Halluzinationen zu reduzieren, indem zusätzlicher Kontext basierend auf diesen Informationen bereitgestellt wird (Augmentationsphase) – Ihr RAG wird zur Workflow-Methode für die heutigen LLM-Aufgaben (wie Empfehlung, Textextraktion, Stimmungsanalyse usw.).

GraphRAG verstehen (1): Herausforderungen von RAG

Wenn wir diese Idee basierend auf der Benutzerabsicht weiter aufschlüsseln, fragen wir normalerweise eine Datenbank mit Vektoren ab. Vektordatenbanken verwenden einen kontinuierlichen Vektorraum, um die Beziehung zwischen zwei Konzepten mithilfe einer auf Nähe basierenden Suche zu erfassen.

Übersicht über die Vektordatenbank

Im Vektorraum werden Informationen, egal ob Text, Bilder, Audio oder jede andere Art, in Vektoren umgewandelt. Vektoren sind numerische Darstellungen von Daten in einem hochdimensionalen Raum. Jede Dimension entspricht einem Merkmal der Daten, und die Werte in jeder Dimension spiegeln die Stärke oder das Vorhandensein dieses Merkmals wider. Durch die Vektordarstellung können wir mathematische Operationen, Abstandsberechnungen, Ähnlichkeitsvergleiche usw. an den Daten durchführen. Die den verschiedenen Dimensionen entsprechenden Werte spiegeln die Stärke oder das Vorhandensein des Merkmals wider. Am Beispiel von Textdaten kann jedes Dokument als Vektor dargestellt werden, wobei jede Dimension die Häufigkeit eines Wortes im Dokument darstellt. Auf diese Weise können zwei Dokumente

auf Nähe basierende Suchen in Datenbanken durchführen, indem sie den Abstand zwischen ihren Vektoren berechnen, diese Datenbanken einbeziehen und mit einem anderen Vektor abfragen und im Vektorraumvektor nach etwas suchen, das diesem „nahe“ ist. Die Nähe zwischen Vektoren wird normalerweise durch Abstandsmaße wie den euklidischen Abstand, die Kosinusähnlichkeit oder den Manhattan-Abstand bestimmt. Die Nähe zwischen Vektoren wird normalerweise durch Abstandsmaße wie den euklidischen Abstand, die Kosinusähnlichkeit oder den Manhattan-Abstand bestimmt.

Wenn Sie eine Suche in einer Datenbank durchführen, stellen Sie eine Abfrage bereit, die das System in einen Vektor umwandelt. Die Datenbank berechnet dann den Abstand oder die Ähnlichkeit zwischen diesem Abfragevektor und bereits in der Datenbank gespeicherten Vektoren. Vektoren, die nahe am Abfragevektor liegen (gemäß der gewählten Metrik), gelten als die relevantesten Ergebnisse. Die Vektoren, die dem Abfragevektor (basierend auf der gewählten Metrik) am nächsten kommen, gelten als die relevantesten Ergebnisse.

Die auf Nähe basierende Suche ist in Vektordatenbanken besonders leistungsstark und eignet sich für Aufgaben wie Empfehlungssysteme, Informationsabruf und Anomalieerkennung.

Dieser Ansatz ermöglicht es dem System, intuitiver zu arbeiten und effektiver auf Benutzeranfragen zu reagieren, indem es den Kontext und die tiefere Bedeutung der Daten versteht, anstatt sich ausschließlich auf oberflächliche Übereinstimmungen zu verlassen.

Allerdings gibt es einige Einschränkungen bei Anwendungen, die für erweiterte Suchen eine Verbindung zu Datenbanken herstellen, wie z. B. Datenqualität, Fähigkeit zum Umgang mit dynamischem Wissen und Transparenz.

Einschränkungen von RAG

Je nach Größe des Dokuments wird RAG grob in drei Kategorien eingeteilt: Wenn das Dokument klein ist, kann kontextuell darauf zugegriffen werden; wenn das Dokument groß ist (oder mehrere Dokumente vorhanden sind). ) werden bei der Abfrage von Blöcken, die indiziert und als Antwort auf Abfragen verwendet werden, kleinere Daten generiert.

Trotz seines Erfolgs weist RAG einige Mängel auf.

Die beiden Hauptindikatoren zur Messung der Leistung von RAG sind Ratlosigkeit und Halluzination. Ratlosigkeit stellt die Anzahl der gleichermaßen möglichen nächsten Wortwahlen im Textgenerierungsprozess dar. Das heißt, wie „verwirrt“ das Sprachmodell in seiner Auswahl ist. Halluzinationen sind unwahre oder erfundene Aussagen der KI.

Während RAG hilft, Halluzinationen zu reduzieren, beseitigt es sie nicht. Wenn Sie ein kleines und prägnantes Dokument haben, können Sie Verwirrung vermeiden (da es nur wenige LLM-Optionen gibt) und Halluzinationen reduzieren (wenn Sie nur fragen, was in dem Dokument steht). Die Kehrseite ist natürlich, dass ein einzelnes kleines Dokument zu einer trivialen Anwendung führt. Für komplexere Anwendungen benötigen Sie eine Möglichkeit, mehr Kontext bereitzustellen.

Betrachten Sie zum Beispiel das Wort „Rinde“ – wir haben mindestens zwei verschiedene Kontexte:

Baumkontext: „Die raue Rinde einer Eiche schützt sie vor der Kälte.“

Hundekontext : „Der Hund des Nachbarn bellt jedes Mal laut, wenn jemand an seinem Haus vorbeigeht.“

Eine Möglichkeit, mehr Kontext bereitzustellen, besteht darin, einen RAG mit einem Wissensgraphen (einem GRAPHRAG) zu kombinieren.

Im Wissensgraphen werden diese Wörter mit dem Kontext und der damit verbundenen Bedeutung verknüpft. Beispielsweise würde „Rinde“ mit Knoten verbunden, die „Baum“ und „Hund“ darstellen. Andere Zusammenhänge können auf gemeinsame Handlungen hinweisen (z. B. der „Schutz“ des Baums, das „Lärmmachen“ des Hundes) oder Eigenschaften (z. B. die „Rauheit“ des Baums, die „Lautheit“ des Hundes). Diese strukturierten Informationen ermöglichen es dem Sprachmodell, die passende Bedeutung basierend auf anderen Wörtern im Satz oder dem Gesamtthema der Konversation auszuwählen.

Im nächsten Abschnitt werden wir die Einschränkungen von RAG sehen und wie GRAPHRAG diese angeht.

Originaltitel: Understanding GraphRAG – 1: Die Herausforderungen von RAG

Originalautor: ajitjaokar

Das obige ist der detaillierte Inhalt vonGraphRAG verstehen (1): Herausforderungen von RAG. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Chat -Befehle und wie man sie benutzt
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Schritt-für-Schritt-Anleitung zur lokalen Verwendung von Groq Llama 3 70B Schritt-für-Schritt-Anleitung zur lokalen Verwendung von Groq Llama 3 70B Jun 10, 2024 am 09:16 AM

Übersetzer |. Bugatti Review |. Chonglou Dieser Artikel beschreibt, wie man die GroqLPU-Inferenz-Engine verwendet, um ultraschnelle Antworten in JanAI und VSCode zu generieren. Alle arbeiten daran, bessere große Sprachmodelle (LLMs) zu entwickeln, beispielsweise Groq, der sich auf die Infrastrukturseite der KI konzentriert. Die schnelle Reaktion dieser großen Modelle ist der Schlüssel, um sicherzustellen, dass diese großen Modelle schneller reagieren. In diesem Tutorial wird die GroqLPU-Parsing-Engine vorgestellt und erläutert, wie Sie mithilfe der API und JanAI lokal auf Ihrem Laptop darauf zugreifen können. In diesem Artikel wird es auch in VSCode integriert, um uns dabei zu helfen, Code zu generieren, Code umzugestalten, Dokumentation einzugeben und Testeinheiten zu generieren. In diesem Artikel erstellen wir kostenlos unseren eigenen Programmierassistenten für künstliche Intelligenz. Einführung in die GroqLPU-Inferenz-Engine Groq

Caltech-Chinesen nutzen KI, um mathematische Beweise zu untergraben! Beschleunigen Sie 5-mal schockiert Tao Zhexuan, 80 % der mathematischen Schritte sind vollständig automatisiert Caltech-Chinesen nutzen KI, um mathematische Beweise zu untergraben! Beschleunigen Sie 5-mal schockiert Tao Zhexuan, 80 % der mathematischen Schritte sind vollständig automatisiert Apr 23, 2024 pm 03:01 PM

LeanCopilot, dieses formale Mathematikwerkzeug, das von vielen Mathematikern wie Terence Tao gelobt wurde, hat sich erneut weiterentwickelt? Soeben gab Caltech-Professorin Anima Anandkumar bekannt, dass das Team eine erweiterte Version des LeanCopilot-Papiers veröffentlicht und die Codebasis aktualisiert hat. Adresse des Bildpapiers: https://arxiv.org/pdf/2404.12534.pdf Die neuesten Experimente zeigen, dass dieses Copilot-Tool mehr als 80 % der mathematischen Beweisschritte automatisieren kann! Dieser Rekord ist 2,3-mal besser als der vorherige Basiswert von Aesop. Und wie zuvor ist es Open Source unter der MIT-Lizenz. Auf dem Bild ist er Song Peiyang, ein chinesischer Junge

Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Jun 10, 2024 am 11:08 AM

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Wie wirkt sich LLM von „Mensch + RPA' bis „Mensch + generative KI + RPA' auf die RPA-Mensch-Computer-Interaktion aus? Wie wirkt sich LLM von „Mensch + RPA' bis „Mensch + generative KI + RPA' auf die RPA-Mensch-Computer-Interaktion aus? Jun 05, 2023 pm 12:30 PM

Bildquelle@visualchinesewen|Wang Jiwei Wie wirkt sich LLM von „Mensch + RPA“ auf „Mensch + generative KI + RPA“ auf die RPA-Mensch-Computer-Interaktion aus? Wie wirkt sich LLM aus einer anderen Perspektive auf RPA aus der Perspektive der Mensch-Computer-Interaktion aus? Wird RPA, das die Mensch-Computer-Interaktion in der Programmentwicklung und Prozessautomatisierung betrifft, nun auch durch LLM verändert? Wie wirkt sich LLM auf die Mensch-Computer-Interaktion aus? Wie verändert generative KI die RPA-Mensch-Computer-Interaktion? Erfahren Sie mehr darüber in einem Artikel: Die Ära der großen Modelle steht vor der Tür und die auf LLM basierende generative KI verändert die RPA-Mensch-Computer-Interaktion rasant. Die generative KI definiert die Mensch-Computer-Interaktion neu und LLM beeinflusst die Veränderungen in der RPA-Softwarearchitektur. Wenn man fragt, welchen Beitrag RPA zur Programmentwicklung und -automatisierung leistet, lautet eine der Antworten, dass es die Mensch-Computer-Interaktion (HCI, h

Plaud bringt den tragbaren NotePin AI-Recorder für 169 US-Dollar auf den Markt Plaud bringt den tragbaren NotePin AI-Recorder für 169 US-Dollar auf den Markt Aug 29, 2024 pm 02:37 PM

Plaud, das Unternehmen hinter dem Plaud Note AI Voice Recorder (erhältlich bei Amazon für 159 US-Dollar), hat ein neues Produkt angekündigt. Das als NotePin bezeichnete Gerät wird als KI-Speicherkapsel beschrieben und ist wie der Humane AI Pin tragbar. Der NotePin ist

Sieben coole technische Interviewfragen für GenAI und LLM Sieben coole technische Interviewfragen für GenAI und LLM Jun 07, 2024 am 10:06 AM

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

GraphRAG verbessert für den Abruf von Wissensgraphen (implementiert basierend auf Neo4j-Code) GraphRAG verbessert für den Abruf von Wissensgraphen (implementiert basierend auf Neo4j-Code) Jun 12, 2024 am 10:32 AM

Graph Retrieval Enhanced Generation (GraphRAG) erfreut sich zunehmender Beliebtheit und hat sich zu einer leistungsstarken Ergänzung zu herkömmlichen Vektorsuchmethoden entwickelt. Diese Methode nutzt die strukturellen Merkmale von Graphdatenbanken, um Daten in Form von Knoten und Beziehungen zu organisieren und dadurch die Tiefe und kontextbezogene Relevanz der abgerufenen Informationen zu verbessern. Diagramme haben einen natürlichen Vorteil bei der Darstellung und Speicherung vielfältiger und miteinander verbundener Informationen und können problemlos komplexe Beziehungen und Eigenschaften zwischen verschiedenen Datentypen erfassen. Vektordatenbanken können diese Art von strukturierten Informationen nicht verarbeiten und konzentrieren sich mehr auf die Verarbeitung unstrukturierter Daten, die durch hochdimensionale Vektoren dargestellt werden. In RAG-Anwendungen können wir durch die Kombination strukturierter Diagrammdaten und unstrukturierter Textvektorsuche gleichzeitig die Vorteile beider nutzen, worauf in diesem Artikel eingegangen wird. Struktur

Visualisieren Sie den FAISS-Vektorraum und passen Sie die RAG-Parameter an, um die Ergebnisgenauigkeit zu verbessern Visualisieren Sie den FAISS-Vektorraum und passen Sie die RAG-Parameter an, um die Ergebnisgenauigkeit zu verbessern Mar 01, 2024 pm 09:16 PM

Da sich die Leistung groß angelegter Open-Source-Sprachmodelle weiter verbessert, hat sich auch die Leistung beim Schreiben und Analysieren von Code, Empfehlungen, Textzusammenfassungen und Frage-Antwort-Paaren (QA) verbessert. Aber wenn es um die Qualitätssicherung geht, mangelt es LLM oft an Problemen im Zusammenhang mit ungeschulten Daten, und viele interne Dokumente werden im Unternehmen aufbewahrt, um Compliance, Geschäftsgeheimnisse oder Datenschutz zu gewährleisten. Wenn diese Dokumente abgefragt werden, kann LLM Halluzinationen hervorrufen und irrelevante, erfundene oder inkonsistente Inhalte produzieren. Eine mögliche Technik zur Bewältigung dieser Herausforderung ist Retrieval Augmented Generation (RAG). Dabei geht es darum, die Antworten durch Verweise auf maßgebliche Wissensdatenbanken über die Trainingsdatenquelle hinaus zu verbessern, um die Qualität und Genauigkeit der Generierung zu verbessern. Das RAG-System umfasst ein Retrieval-System zum Abrufen relevanter Dokumentfragmente aus dem Korpus

See all articles