Da KI weiterhin die Art und Weise prägt, wie wir arbeiten und mit Technologie interagieren, suchen viele Unternehmen nach Möglichkeiten, ihre eigenen Daten in intelligenten Anwendungen zu nutzen. Wenn Sie Tools wie ChatGPT oder Azure OpenAI verwendet haben, wissen Sie bereits, wie generative KI Prozesse verbessern und Benutzererlebnisse verbessern kann. Für wirklich individuelle und relevante Antworten müssen Ihre Anwendungen jedoch Ihre proprietären Daten integrieren.
Hier kommt Retrieval-Augmented Generation (RAG) ins Spiel und bietet einen strukturierten Ansatz zur Integration des Datenabrufs mit KI-gestützten Antworten. Mit Frameworks wie LlamaIndex können Sie diese Funktion ganz einfach in Ihre Lösungen integrieren und so das volle Potenzial Ihrer Geschäftsdaten ausschöpfen.
Möchten Sie die App schnell ausführen und erkunden? Klicken Sie hier.
Retrieval-Augmented Generation (RAG) ist ein neuronales Netzwerk-Framework, das die KI-Textgenerierung durch die Einbindung einer Retrieval-Komponente verbessert, um auf relevante Informationen zuzugreifen und Ihre eigenen Daten zu integrieren. Es besteht aus zwei Hauptteilen:
Der Retriever findet relevante Dokumente und der Generator verwendet sie, um genauere und informativere Antworten zu erstellen. Diese Kombination ermöglicht es dem RAG-Modell, externes Wissen effektiv zu nutzen und so die Qualität und Relevanz des generierten Textes zu verbessern.
Um ein RAG-System mit LlamaIndex zu implementieren, befolgen Sie diese allgemeinen Schritte:
Als praktisches Beispiel haben wir eine Beispielanwendung bereitgestellt, um eine vollständige RAG-Implementierung mit Azure OpenAI zu demonstrieren.
Wir konzentrieren uns nun auf die Erstellung einer RAG-Anwendung mit LlamaIndex.ts (der TypeScipt-Implementierung von LlamaIndex) und Azure OpenAI und stellen diese als serverlose Web-Apps auf Azure Container Apps bereit.
Das Getting Started-Projekt finden Sie auf GitHub. Wir empfehlen Ihnen, diese Vorlage zu teilen, damit Sie sie bei Bedarf frei bearbeiten können:
Die Projektanwendung „Erste Schritte“ basiert auf der folgenden Architektur:
Weitere Informationen zu den bereitgestellten Ressourcen finden Sie im Infra-Ordner, der in allen unseren Beispielen verfügbar ist.
Die Beispielanwendung enthält Logik für zwei Workflows:
Datenaufnahme: Daten werden abgerufen, vektorisiert und Suchindizes erstellt. Wenn Sie weitere Dateien wie PDFs oder Word-Dateien hinzufügen möchten, sollten Sie diese hier hinzufügen.
npm run generate
Bereitstellung von Eingabeaufforderungsanfragen: Die App empfängt Benutzereingabeaufforderungen, sendet sie an Azure OpenAI und erweitert diese Eingabeaufforderungen mithilfe des Vektorindex als Retriever.
Bevor Sie das Beispiel ausführen, stellen Sie sicher, dass Sie die erforderlichen Azure-Ressourcen bereitgestellt haben.
Um die GitHub-Vorlage im GitHub-Codespace auszuführen, klicken Sie einfach auf
Melden Sie sich in Ihrer Codespaces-Instanz von Ihrem Terminal aus bei Ihrem Azure-Konto an:
azd auth login
Bereitstellen, Verpacken und Bereitstellen der Beispielanwendung in Azure mit einem einzigen Befehl:
azd up
Um die Anwendung lokal auszuführen und auszuprobieren, installieren Sie die npm-Abhängigkeiten und führen Sie die App aus:
npm install npm run dev
Die App wird auf Port 3000 in Ihrer Codespaces-Instanz oder unter http://localhost:3000 in Ihrem Browser ausgeführt.
Diese Anleitung zeigt, wie man eine serverlose RAG-Anwendung (Retrieval-Augmented Generation) mit LlamaIndex.ts und Azure OpenAI erstellt, die auf Microsoft Azure bereitgestellt wird. Wenn Sie diesem Leitfaden folgen, können Sie die Infrastruktur von Azure und die Funktionen von LlamaIndex nutzen, um leistungsstarke KI-Anwendungen zu erstellen, die kontextuell angereicherte Antworten basierend auf Ihren Daten bereitstellen.
Wir sind gespannt, was Sie mit dieser Einstiegsanwendung erstellen. Fühlen Sie sich frei, es zu forken und das GitHub-Repository zu liken, um die neuesten Updates und Funktionen zu erhalten.
Das obige ist der detaillierte Inhalt vonErstellen einer RAG-App mit LlamaIndex.ts und Azure OpenAI: Erste Schritte!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!