In diesem Artikel wird die steigende Beliebtheit der Abrufgeneration (RAG) in Finanzunternehmen untersucht und sich darauf konzentriert, wie er den Zugriff auf den Wissen optimiert und die wichtigsten Herausforderungen in LLM-gesteuerten Lösungen richtet. Rag kombiniert einen Retriever (lokale Dokumente) mit einem großen Sprachmodell (LLM) (synthetisierende Antworten), das sich für Aufgaben wie Kundenunterstützung, Forschung und internes Wissensmanagement als von unschätzbarem Wert erweist.
Effektive LLM -Bewertung ist entscheidend. Inspiriert von der testgetriebenen Entwicklung (TDD) verwendet ein bewertungsgetriebener Ansatz messbare Benchmarks, um KI-Workflows zu validieren und zu verfeinern. Für RAG beinhaltet dies die Erstellung von repräsentativen Eingabe-Output-Paaren (z. B. Q & A-Paare für Chatbots oder Quelldokumente und erwartete Zusammenfassungen). Traditionell stützte sich diese Datensatzerstellung stark auf Experten (KMU), was zu zeitaufwändigen, inkonsistenten und kostspieligen Prozessen führte. Darüber hinaus haben die Einschränkungen der LLMs bei der Behandlung visueller Elemente in Dokumenten (Tabellen, Diagramme) die Genauigkeit behindert, wobei Standard -OCR -Tools häufig zu kurz sind.
Herausforderungen mit multimodalen Funktionen
überwinden
Die Entstehung multimodaler Fundamentmodelle bietet eine Lösung. Diese Modelle verarbeiten sowohl Text als auch visuellen Inhalt und beseitigen die Notwendigkeit einer separaten Textextraktion. Sie können ganze Seiten einnehmen, Layoutstrukturen, Diagramme und Tabellen erkennen, wodurch die Genauigkeit, Skalierbarkeit und die Verringerung des manuellen Anstrengungen verbessert werden.
Fallstudie: Vermögensverwaltungsforschungsbericht Analyse
Diese Studie verwendet den 2023 Cerulli -Bericht (ein typisches Vermögensverwaltungsdokument, das Text und komplexe Visuals kombiniert), um die automatisierte Q & A -Paarerzeugung zu demonstrieren. Ziel war es, Fragen zu generieren, die visuelle Elemente beinhalten und zuverlässige Antworten aufnehmen. Der Prozess verwendete das Claude-Sonnet von Anthropic, das die PDF-to-Image-Konvertierung intern übernimmt, um den Workflow zu vereinfachen und die Codekomplexität zu verringern.
Die Eingabeaufforderung wies das Modell an, bestimmte Seiten zu analysieren, Seitentitel zu identifizieren, Fragen zu erstellen, die den visuellen oder textuellen Inhalt verweisen, und generieren zwei unterschiedliche Antworten für jede Frage. Ein vergleichender Lernansatz wurde implementiert, wobei zwei Antworten zur Bewertung und Auswahl der überlegenen Antwort vorgestellt wurden. Dies spiegelt die menschliche Entscheidungsfindung wider, bei dem der Vergleich von Alternativen den Prozess vereinfacht. Dies entspricht den Best Practices, die in „Was wir aus einem Jahr des Gebäudes mit LLMs gelernt haben“ hervorgehoben wurden und die Stabilität paarweise Vergleiche für die LLM -Bewertung betonen.
Claude Opus fungierte mit seinen fortgeschrittenen Argumentationsfunktionen als "Richter" und wählte die bessere Antwort auf der Grundlage von Kriterien wie Klarheit und Direktheit aus. Dies reduziert die manuelle KMU -Überprüfung erheblich, die Skalierbarkeit und Effizienz verbessert. Während die anfängliche KMU-Spot-Überprüfung unerlässlich ist, verringert diese Abhängigkeit im Laufe der Zeit, wenn das Systemvertrauen wächst.Optimierung des Workflows: Caching, Batching und Seitenauswahl
Es wurden mehrere Optimierungen implementiert:
Beispielausgabe und Vorteile
Ein Beispiel zeigt, wie die LLM Informationen aus Tabellen innerhalb des Berichts genau synthetisierte, um eine Frage zur AUM -Verteilung zu beantworten. Die Gesamtvorteile umfassen:
Dieser Ansatz zeigt eine skalierbare und kostengünstige Lösung zum Erstellen von Bewertungsdatensätzen für RAG-Systeme und nutzt die Leistung multimodaler LLMs, um die Genauigkeit und Effizienz der Finanzdatenanalyse zu verbessern. Die Bilder aus dem Originaltext sind unten enthalten:
Das obige ist der detaillierte Inhalt vonSynthetische Datenerzeugung mit LLMs. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!