Verbesserung von Lappensystemen mit nomischen Einbettungen
Multimodal Abruf-general-generierte Generationssysteme revolutionieren KI, indem verschiedene Datentypen integriert werden-Texttypen, Bilder, Audio und Video-für nuanciertere und kontextbezogene Antworten. Dies übertrifft den traditionellen Lappen, der sich ausschließlich auf Text konzentriert. Ein wesentlicher Fortschritt sind Nomic Vision-Einbettungen, die einen einheitlichen Raum für visuelle und textliche Daten erstellen und eine nahtlose Kreuzmodalinteraktion ermöglichen. Fortgeschrittene Modelle erzeugen hochwertige Einbettungen, verbessert das Abrufen des Informationen und die Überbrückung der Lücke zwischen verschiedenen Inhaltsformen, letztendlich bereichern die Benutzererfahrungen.
Lernziele
- erfassen die Grundlagen des multimodalen Lappen und ihre Vorteile gegenüber dem traditionellen Lappen.
- Verstehen Sie die Rolle von Nomic Vision -Einbettungen in die Vereinheitlichung von Text- und Bildbettungsräumen.
- Vergleiche nomische Vision -Einbettung mit Clip -Modellen und Analyse der Leistungsbenchmarks.
- Implementieren Sie ein multimodales Lappensystem in Python mit nomischen Seh- und Texteinbettungen.
- Lernen Sie, Text- und visuelle Daten aus PDFs für multimodales Abrufen zu extrahieren und zu verarbeiten.
*Dieser Artikel ist Teil des Blogathons *** Data Science.
Inhaltsverzeichnis
- Was ist multimodaler Lappen?
- Nomic Vision Emettdings
- Performance -Benchmarks von Nomic Sehbettdings
-
- praktische Python-Implementierung von multimodalem Lappen mit nomischen Seheinbettdings
- Schritt 1: Installieren der erforderlichen Bibliotheken
- Schritt 2: Setzen Sie den OpenAI -API -Schlüssel und importieren Bibliotheken
- Schritt 3: Extrahieren von Bildern aus PDF
- Schritt 4: Text aus PDF
- extrahieren Schritt 5: Sparen extrahierter Text und Bilder
- Schritt 6: STRINK -Textdaten
- Schritt 7: Laden von Nomic -Einbettungsmodellen
- Schritt 8: Erzeugen von Emetten
- erzeugen Schritt 9: Speichern von Texteinbettungen in QDrant
- Schritt 10: Bildungsbettdings in QDrant
- speichern Schritt 11: Erstellen eines multimodalen Retrievers
- Schritt 12: Erstellen eines multimodalen Lappen mit Langchain
- Abfragen des Modells
- Schlussfolgerung
- häufig gestellte Fragen
Was ist multimodaler Lappen?
multimodales Lappen stellt einen signifikanten KI -Fortschritt dar, der auf traditionellen Lappen aufbaut, indem verschiedene Datentypen einbezogen werden. Im Gegensatz zu herkömmlichen Systemen, die in erster Linie Text verarbeiten, werden multimodale Lappenprozesse und integriert mehrere Datenformulare gleichzeitig. Dies führt zu umfassenderen Verständnis- und Kontextbekanntheitsantworten in verschiedenen Modalitäten.
multimodale Lappenkomponenten der Schlüssel:
- Datenaufnahme: Daten aus verschiedenen Quellen werden mit speziellen Prozessoren aufgenommen, um die Validierung, Reinigung und Normalisierung zu gewährleisten.
- Vektordarstellung: Modalitäten werden unter Verwendung neuronaler Netzwerke (z. B. Clip für Bilder, Bert für Text) verarbeitet, um einheitliche Vektor -Einbettungen zu erstellen, die semantische Beziehungen aufrechterhalten.
- Vektor -Datenbankspeicher: Einbettungen werden in optimierten Vektor -Datenbanken (z. B. QDrant) unter Verwendung von Indexierungstechniken (HNSW, FAISS) für ein effizientes Abrufen gespeichert. .
- Abfrageverarbeitung: Eingehende Abfragen werden analysiert, in denselben Vektorraum wie die gespeicherten Daten umgewandelt und zur Identifizierung relevanter Modalitäten und zur Generierung von Einbettungen für die Suche verwendet.
Nomic Vision Emettdings
Nomic Vision -Einbettungen sind eine wichtige Innovation, die einen einheitlichen Einbettungsraum für visuelle und textuelle Daten schaffen. Nomic Embett Vision V1 und V1.5, entwickelt von Nomic AI, teilen den gleichen latenten Raum wie ihre Texte (Nomic Einbettetext V1 und V1.5). Dies macht sie ideal für multimodale Aufgaben wie das Abrufen von Text-zu-Image-Abrufen. Mit einer relativ kleinen Parameterzahl (92 m) ist das Nomic-Einbettungsvision für groß angelegte Anwendungen effizient.
adressierende Clipmodellbeschränkungen:
Während CLIP in Null-Shot-Funktionen auszeichnet, unterdurchschnittlich die Textcodierer in Aufgaben über die Bildabnahme hinaus (wie in MTEB-Benchmarks gezeigt). Nomic Embed Vision befasst sich mit dem Sehverteller mit dem Nomic -Einbettungstext latenten Raum.
Nomic Embett Vision wurde neben dem Nomic-Einbettungstext trainiert, wodurch der Textcodierer gefriert und den Visionscodierer auf Bildtextpaaren trainiert wurde. Dies gewährleistet optimale Ergebnisse und Rückwärtskompatibilität mit Nomic -Einbettungstext -Einbettungen.
Performance -Benchmarks von Nomic Sehbettdings
Clip-Modelle zeigen zwar in Null-Shot-Funktionen beeindruckend, zeigen jedoch Schwächen bei unimodalen Aufgaben wie der semantischen Ähnlichkeit (MTEB-Benchmarks). Nomic Embed Vision überwindet dies, indem er seinen Visionscodierer mit dem Nomic Embed Text Latent Space ausrichtet, was zu einer starken Leistung über Bild-, Text- und multimodale Aufgaben führt (ImageNet Zero-Shot, MTEB, DataComp-Benchmarks). .
praktische Python-Implementierung von multimodalem Lappen mit nomischen Seheinbettdings
Dieses Tutorial erstellt ein multimodales Lag -System -Abrufinformationen aus einem PDF mit Text und Bildern (mit Google Colab mit einer T4 -GPU).
Schritt 1: Bibliotheken installieren Installieren Sie die erforderlichen Python -Bibliotheken: OpenAI, Qdrant, Transformers, Torch, Pymupdf usw. (Code für Kürze ausgelassen, aber im Original vorhanden.)
Schritt 2: Setzen Sie den OpenAI -API -Schlüssel und importieren Bibliotheken
Setzen Sie den OpenAI -API -Schlüssel und den importierten Bibliotheken (Pymupdf, Pil, Langchain, Openai usw.). (Code für Kürze weggelassen.)
Schritt 3: Extrahieren von Bildern aus PDF
extrahieren Sie Bilder aus dem PDF mit PYMUPDF und speichern Sie sie in einem Verzeichnis. (Code für Kürze weggelassen.)
Schritt 4: Text aus PDF
extrahierenText aus jeder PDF -Seite mit PYMUPDF extrahieren. (Code für Kürze weggelassen.)
Schritt 5: Sparen extrahierte Daten
extrahierte Bilder und Text speichern. (Code für Kürze weggelassen.)
Schritt 6: STRINK -Textdaten
Teilen Sie den extrahierten Text mit Langchains RecursiveCharacterTextSplitter
in kleinere Stücke auf. (Code für Kürze weggelassen.)
Schritt 7: Laden von Nomic -Einbettungsmodellen
Laden Sie den Text- und Vision -Einbettungsmodellen von Nomic mit den Transformers von Sugging Face. (Code für Kürze weggelassen.)
Schritt 8: Erzeugen von Emetten
erzeugenText- und Bildeinbettung generieren. (Code für Kürze weggelassen.)
Schritt 9: Speichern von Texteinbettungen in QDrant
Texteinbettungen in einer QDrant -Sammlung speichern. (Code für Kürze weggelassen.)
Schritt 10: Bildungsbettdings in QDrant
speichernBildeinbettungen in einer separaten QDrant -Sammlung speichern. (Code für Kürze weggelassen.)
Schritt 11: Erstellen eines multimodalen Retrievers
Erstellen Sie eine Funktion zum Abrufen relevanter Text- und Bild -Einbettungen basierend auf einer Abfrage. (Code für Kürze weggelassen.)
Schritt 12: Erstellen eines multimodalen Lappen mit Langchain
Verwenden Sie Langchain, um abgerufene Daten zu verarbeiten und Antworten mit einem Sprachmodell zu generieren (z. B. GPT-4). (Code für Kürze weggelassen.)
Abfragen des Modells
Die Beispielabfragen demonstrieren die Fähigkeit des Systems, Informationen sowohl aus Text als auch aus den Bildern innerhalb des PDF abzurufen. (Beispielabfragen und Ausgänge für Kürze weggelassen, aber im Original vorhanden.)
Schlussfolgerung
Nomic Vision -Einbettung erhöht den multimodalen Lappen signifikant und ermöglicht eine nahtlose Interaktion zwischen visuellen und textuellen Daten. Dies befasst sich mit Einschränkungen von Modellen wie Clip, der einen einheitlichen Einbettungsraum und einer verbesserten Leistung über verschiedene Aufgaben hinweg bereitgestellt wird. Dies führt zu reicheren, kontextbezogeneren Benutzererlebnissen in Produktionsumgebungen.
Key Takeaways
- Multimodal RAG integriert verschiedene Datentypen für ein umfassenderes Verständnis.
- Nomic Vision Einbettung vereinen visuelle und textuelle Daten für ein verbessertes Informationsabruf.
- Das System verwendet spezielle Verarbeitung, Vektordarstellung und Speicher für ein effizientes Abruf.
- Nomic Embed Vision überwindet Clips Einschränkungen bei unimodalen Aufgaben.
häufig gestellte Fragen
(FAQs für Kürze weggelassen, aber im Original vorhanden.)
Hinweis: Die Code -Snippets wurden aus der Kürze weggelassen, aber die Kernfunktionalität und die Schritte bleiben genau beschrieben. Die ursprüngliche Eingabe enthielt umfangreiche Code; Das Einschließen würde diese Reaktion übermäßig lang machen. Siehe die ursprüngliche Eingabe für die vollständige Code -Implementierung.
Das obige ist der detaillierte Inhalt vonVerbesserung von Lappensystemen mit nomischen Einbettungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Metas Lama 3.2: Ein Sprung nach vorne in der multimodalen und mobilen KI Meta hat kürzlich Lama 3.2 vorgestellt, ein bedeutender Fortschritt in der KI mit leistungsstarken Sichtfunktionen und leichten Textmodellen, die für mobile Geräte optimiert sind. Aufbau auf dem Erfolg o

Hey da, codieren Ninja! Welche Codierungsaufgaben haben Sie für den Tag geplant? Bevor Sie weiter in diesen Blog eintauchen, möchte ich, dass Sie über all Ihre Coding-Leiden nachdenken-die Auflistung auflisten diese auf. Erledigt? - Lassen Sie ’

Die KI -Landschaft dieser Woche: Ein Wirbelsturm von Fortschritten, ethischen Überlegungen und regulatorischen Debatten. Hauptakteure wie OpenAI, Google, Meta und Microsoft haben einen Strom von Updates veröffentlicht, von bahnbrechenden neuen Modellen bis hin zu entscheidenden Verschiebungen in LE

Das jüngste Memo von Shopify -CEO Tobi Lütke erklärt kühn für jeden Mitarbeiter eine grundlegende Erwartung und kennzeichnet eine bedeutende kulturelle Veränderung innerhalb des Unternehmens. Dies ist kein flüchtiger Trend; Es ist ein neues operatives Paradigma, das in P integriert ist

Einführung Stellen Sie sich vor, Sie gehen durch eine Kunstgalerie, umgeben von lebhaften Gemälden und Skulpturen. Was wäre, wenn Sie jedem Stück eine Frage stellen und eine sinnvolle Antwort erhalten könnten? Sie könnten fragen: „Welche Geschichte erzählst du?

Einführung OpenAI hat sein neues Modell auf der Grundlage der mit Spannung erwarteten „Strawberry“ -Scharchitektur veröffentlicht. Dieses innovative Modell, bekannt als O1

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Für diejenigen unter Ihnen, die in meiner Kolumne neu sein könnten, erforsche ich allgemein die neuesten Fortschritte in der KI auf dem gesamten Vorstand, einschließlich Themen wie verkörpertes KI, KI-Argumentation, High-Tech
