Gabeln
In diesem Artikel wird Agentic Rag untersucht, eine leistungsstarke Technik, die Großsprachmodelle (LLMs) verbessert, indem die Entscheidungsfunktionen der Agenten-KI mit der Anpassungsfähigkeit der Abrufgeneration (RAG) kombiniert werden. Im Gegensatz zu herkömmlichen Modellen, die durch ihre Trainingsdaten begrenzt sind, ermöglicht Agentic Rag LLMs, mit Informationen aus verschiedenen Quellen unabhängig zugreifen und zu begründen. Dieser praktische Leitfaden konzentriert sich auf den Bau einer praktischen Lappenpipeline mit Langchain.
Erstellen einer agierenden Lappenpipeline mit Langchain
Die folgenden Schritte beschreiben die Erstellung einer Lappenpipeline, die durch das Architekturdiagramm unten dargestellt wird:
-
Benutzerabfrage: Der Prozess beginnt mit der Frage eines Benutzers, initiiert die Pipeline.
-
Abfragerouting: Das System bestimmt, ob es die Abfrage mit vorhandenem Wissen beantworten kann. Eine positive Antwort ergibt eine sofortige Antwort; Andernfalls fährt die Abfrage zum Abrufen von Daten fort.
-
Datenabnahme: Die Pipeline greift auf zwei potenzielle Quellen zu:
- Lokale Dokumente: Ein vorverarbeiteter PDF (z. B. generative AI-Prinzipien) dient als Wissensbasis, wobei das System nach relevanten Informationen innerhalb. sucht.
- Internetsuche: Für einen breiteren Kontext verwendet die Pipeline externe Quellen, um aktuelle Informationen zu sammeln.
-
Kontextgebäude:
Abgerufene Daten (aus dem PDF oder Web) werden in einen kohärenten Kontext zusammengestellt, wobei relevante Informationen zusammengestellt werden. -
Antwortgenerierung:
Dieser kompilierte Kontext wird einem großen Sprachmodell (LLM) zugeführt, um eine präzise und informative Antwort zu generieren.
Einrichten der Umgebung
Stellen Sie vor dem Start sicher, dass Sie Folgendes haben:
- CROQ -API -Taste: CORQ -API -Konsole
- Gemini API -Schlüssel: Gemini API -Konsole
- serper.dev apischlüssel: serper.dev apischlüssel
Installieren Sie die erforderlichen Python -Pakete:
pip install langchain-groq faiss-cpu crewai serper pypdf2 python-dotenv setuptools sentence-transformers huggingface distutils
.env
API -Schlüssel sicher in einer
pip install langchain-groq faiss-cpu crewai serper pypdf2 python-dotenv setuptools sentence-transformers huggingface distutils
The code utilizes various libraries for: operating system interaction (os
), environment variable loading (dotenv
), vector database management (FAISS
), PDF processing (PyPDFLoader
), text splitting (RecursiveCharacterTextSplitter
), embedding generation (HuggingFaceEmbeddings
), LLM interaction (ChatGroq
, LLM
), web searching (SerperDevTool
, ScrapeWebsiteTool
), and agent Orchestrierung (Agent
, Task
, Crew
).
LLM-Initialisierung und Entscheidungsfindung
Zwei LLMs werden initialisiert: llm
(mit llama-3.3-70b-specdec
) für allgemeine Aufgaben und crew_llm
(mit gemini/gemini-1.5-flash
) für Web -Scraping. Eine check_local_knowledge()
-Funktion fungiert als Router und stellt fest, ob eine lokale Antwort auf der Grundlage des bereitgestellten Kontexts ausreicht.
Web Scraping Agent und Vector -Datenbank
Ein Web -Scraping -Agent, das mit der crewai
Bibliothek erstellt wurde, ruft und fasst relevante Webinhalte zusammen. Die setup_vector_db()
-Funktion erstellt eine FAISS -Vektor -Datenbank aus der PDF, die eine effiziente Ähnlichkeitssuche ermöglicht. get_local_content()
ruft die 5 relevantesten Brocken aus der Datenbank ab.
Antwortgenerierung und Hauptfunktion
Die Funktion generate_final_answer()
verwendet das LLM, um die endgültige Antwort basierend auf dem gesammelten Kontext zu erstellen. Die main()
-Funktion organisiert den gesamten Prozess, bearbeitet das Routing von Abfragen, den Kontextabruf und die Antwortgenerierung. Eine Beispielabfrage ("Was ist Agentic Rag?") Zeigt die Fähigkeit des Systems, lokale und webbasierte Informationen für eine umfassende Antwort zu integrieren. Die Ausgabe zeigt die Fähigkeit des Systems, eine detaillierte Erklärung des Agentenlags zu liefern, auch wenn die Informationen im lokalen PDF nicht direkt vorhanden sind.
Diese überarbeitete Antwort liefert eine prägnantere und organisierte Erklärung der Agentenlag -Pipeline, wobei sich die wichtigsten Schritte und Funktionen konzentriert. Es verdeutlicht auch den Zweck und die Verwendung jedes Codesegments und der einzelnen Code -Bibliothek.
Das obige ist der detaillierte Inhalt vonGabeln. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Während der Arbeit an Agentic AI navigieren Entwickler häufig die Kompromisse zwischen Geschwindigkeit, Flexibilität und Ressourceneffizienz. Ich habe den Agenten-KI-Framework untersucht und bin auf Agno gestoßen (früher war es phi-

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Die Veröffentlichung umfasst drei verschiedene Modelle, GPT-4.1, GPT-4.1 Mini und GPT-4.1-Nano, die einen Zug zu aufgabenspezifischen Optimierungen innerhalb der Landschaft des Großsprachenmodells signalisieren. Diese Modelle ersetzen nicht sofort benutzergerichtete Schnittstellen wie

Schwierige Benchmarks: Eine Lama -Fallstudie Anfang April 2025 stellte Meta seine Lama 4-Suite von Models vor und stellte beeindruckende Leistungsmetriken vor, die sie positiv gegen Konkurrenten wie GPT-4O und Claude 3.5 Sonnet positionierten. Zentral im Launc

Schalte die Kraft des Einbettungsmodelle frei: einen tiefen Eintauchen in den neuen Kurs von Andrew Ng Stellen Sie sich eine Zukunft vor, in der Maschinen Ihre Fragen mit perfekter Genauigkeit verstehen und beantworten. Dies ist keine Science -Fiction; Dank der Fortschritte in der KI wird es zu einem R

Kann ein Videospiel Angst erleichtern, Fokus aufbauen oder ein Kind mit ADHS unterstützen? Da die Herausforderungen im Gesundheitswesen weltweit steigen - insbesondere bei Jugendlichen - wenden sich Innovatoren einem unwahrscheinlichen Tool zu: Videospiele. Jetzt einer der größten Unterhaltungsindus der Welt

Simulieren Raketenstarts mit Rocketpy: Eine umfassende Anleitung Dieser Artikel führt Sie durch die Simulation von Rocketpy-Starts mit hoher Leistung mit Rocketpy, einer leistungsstarken Python-Bibliothek. Wir werden alles abdecken, von der Definition von Raketenkomponenten bis zur Analyse von Simula

Gemini als Grundlage der KI -Strategie von Google Gemini ist der Eckpfeiler der AI -Agentenstrategie von Google und nutzt seine erweiterten multimodalen Funktionen, um Antworten auf Text, Bilder, Audio, Video und Code zu verarbeiten und zu generieren. Entwickelt von Deepm
