Heim > Technologie-Peripheriegeräte > KI > Verbesserung des multimodalen Lappen mit Deepseek Janus Pro

Verbesserung des multimodalen Lappen mit Deepseek Janus Pro

William Shakespeare
Freigeben: 2025-03-05 09:47:10
Original
183 Leute haben es durchsucht

Deepseek Janus Pro 1B, der am 27. Januar 2025 eingeführt wurde, ist ein fortschrittliches multimodales KI -Modell, das zur Verarbeitung und Generierung von Bildern aus textlichen Eingabeaufforderungen erstellt wurde. Mit seiner Fähigkeit, Bilder basierend auf Text zu verstehen und zu erstellen, liefert diese 1-Milliarden-Parameterversion (1B) eine effiziente Leistung für eine Vielzahl von Anwendungen, einschließlich der Erzeugung und des Bildverständnisses von Text zu Image. Darüber hinaus zeichnet es sich um detaillierte Bildunterschriften aus Fotos und macht es zu einem vielseitigen Werkzeug für kreative und analytische Aufgaben.

Lernziele

  • Analyse seiner Architektur und Schlüsselmerkmale, die seine Fähigkeiten verbessern.
  • Erforschung des zugrunde liegenden Designs und seiner Auswirkungen auf die Leistung.
  • Eine Schritt-für-Schritt-Anleitung zum Aufbau eines RAG-Systems (Abruf-Augungs-Generation).
  • Verwenden des Deepseek Janus Pro 1-Milliarden-Modells für reale Anwendungen.
  • Verstehen Sie, wie Deepseek Janus Pro AI-gesteuerte Lösungen optimiert.

Dieser Artikel wurde als Teil des Data Science -Blogathon veröffentlicht.

Inhaltsverzeichnis

  • Lernziele
  • Was ist Deepseek Janus Pro? Verständnis & Generation
    • Unified Transformator Architecture
    optimierte Trainingsstrategie
    • multimodaler RAG mit Deepseek Janus Pro 1B Modell
    • Schritt 1. Installieren Sie notwendige Bibliotheken
    • Schritt 2. Modell zum Speichern von Bildbetten. PDF
    • Step 4. Querying & Retrieval From Saved Images
    Step 5. Load Janus Pro Model
  • Step 6. Output Generation
    • Conclusions
    • Key Takeaways
    • Frequently Asked Questions
    • Was ist Deepseek Janus Pro?
    • Deepseek Janus Pro ist ein multimodales KI -Modell, das Text- und Bildverarbeitung integriert, das Bilder aus Textaufforderungen verstehen und generiert. Die 1-Milliarden-Parameterversion (1B) ist für effiziente Leistung für Anwendungen wie Text-zu-Image-Erzeugung und Bildverständnisaufgaben ausgelegt.
  • Unter Deepseeks Janus Pro-Serie sind die verfügbaren primären Modelle
  • „Janus Pro 1b“ und „Janus Pro 7b“, die sich hauptsächlich in ihrer Parametergröße unterscheiden, wobei das 7B-Modell signifikant größer ist und eine verbesserte Leistung in den Aufgaben der Text-zu-Images-Erzeugung angesehen wird.

    Schlüsselmerkmale und Designaspekte von Janus Pro 1b

    • Architektur : Janus Pro verwendet eine einheitliche Transformatorarchitektur, entkoppelt jedoch visuelle Codierung in separate Wege, um die Leistung sowohl bei den Aufgaben des Bildverständnisses als auch in der Erstellung zu verbessern.
    • Funktionen : Es ist in Aufgaben im Zusammenhang mit dem Verständnis von Bildern und der Erzeugung neuer auf der Grundlage von Textaufforderungen hervorragend. Es unterstützt 384 × 384 Bildeingaben.
    • Bild -Encoder : Für Bildverständnisaufgaben verwendet Janus Siglip, um Bilder zu codieren. Siglip ist ein Bildbettungsmodell, das das Framework von Clip verwendet, die Verlustfunktion jedoch durch einen paarweisen Sigmoidverlust ersetzt. Für die Bildgenerierung verwendet Janus einen vorhandenen Encoder von Llamagen, einem autoregressiven Bildgenerierungsmodus. Llamagen ist eine Familie von Bild-Generation-Modellen, die das nächstgefeilte Vorhersageparadigma von Großsprachenmodellen auf eine visuelle Generation
    • anwendet
    • Open Source: Es ist auf GitHub unter der MIT -Lizenz verfügbar, wobei die Modellnutzung der Deepseek -Modelllizenz abgelehnt wird.

    auch lesen: Wie kann man Deepseek Janus Pro 7b zugreifen?

    entkoppelte Architektur für Bildverständnis & Generation

    Verbesserung des multimodalen Lappen mit Deepseek Janus Pro

    Janus-pro weicht von früheren multimodalen Modellen ab, indem sie separate, spezialisierte Wege für die visuelle Codierung verwenden, anstatt sich auf einen einzelnen visuellen Encoder für das Bildverständnis und die Erzeugung zu verlassen.

    • Bildverständnis Encoder. Dieser Weg extrahiert semantische Merkmale aus Bildern.
    • Bildgenerierung Encoder. Dieser Weg synthetisiert Bilder basierend auf Textbeschreibungen.

    Diese entkoppelte Architektur erleichtert aufgabenspezifische Optimierungen und mildern Konflikte zwischen Interpretation und kreativer Synthese. Die unabhängigen Encoder interpretieren Eingabefunktionen, die dann von einem einheitlichen autoregressiven Transformator verarbeitet werden. Dies ermöglicht es sowohl multimodaler Verständnis als auch Generationskomponenten, unabhängig ihre am besten geeigneten Codierungsmethoden auszuwählen.

    Lesen Sie auch: Wie Deepseeks Janus Pro stapelt sich gegen Dall-e 3?

    Schlüsselmerkmale der Modellarchitektur

    1. Dual-Pathway-Architektur für visuelles Verständnis & Generation

    • Visueller Verständnisweg: Für multimodale Verständnisaufgaben verwendet Janus Pro Siglip-L als visuelles Encoder, das Bildeingaben von bis zu 384 × 384 Auflösung unterstützt. Mit dieser hochauflösenden Unterstützung kann das Modell mehr Bilddetails erfassen und damit die Genauigkeit des visuellen Verständnisses verbessern.
    • STIRS -Generierungspfad : Für Aufgaben der Bildgenerierung verwendet Janus Pro Llamagen -Tokenizer mit einer Downsampling -Rate von 16, um detailliertere Bilder zu generieren.

    Verbesserung des multimodalen Lappen mit Deepseek Janus Pro

    2. Unified Transformator Architecture

    Ein gemeinsames Transformator -Rückgrat wird verwendet und Bildfunktionsfusion. Die unabhängigen Codierungsmethoden zum Umwandeln der Roheingaben in Funktionen werden von einem einheitlichen autoregressiven Transformator verarbeitet.

    3. Optimierte Trainingsstrategie

    Im früheren Janus-Training gab es einen dreistufigen Trainingsprozess für das Modell. Die erste Stufe konzentrierte sich auf das Training der Adapter und des Bildkopfes. In der zweiten Stufe wurde mit einheitlichen Vorbereitungen umgegangen, in denen alle Komponenten mit Ausnahme des Verständniscodierers und des Generationscodierers ihre Parameter aktualisiert haben. Stufe III überdachte Überwachung der Feinabstimmung und aufgebaut auf Stufe II, indem die Parameter des Verständnis-Encoders während des Trainings weiter entschlossen.

    Dies wurde in Janus Pro verbessert:

    • Durch Erhöhen der Trainingsschritte in Stufe I, sodass ein ausreichendes Training im ImageNet -Datensatz ermöglicht wird.
    • Zusätzlich wurden in Stufe II für das Training der Text-zu-Image-Generation die Bilddaten vollständig fallen gelassen. Stattdessen wurden normale Text-zu-Image-Daten verwendet, um das Modell zu trainieren, um Bilder basierend auf dichten Beschreibungen zu generieren. Dies wurde festgestellt, um die Trainingseffizienz und die Gesamtleistung zu verbessern.

    Lassen Sie uns nun multimodaler Lappen mit Deepseek Janus Pro bauen:

    multimodaler Lappen mit Deepseek Janus Pro 1B Modell

    In den folgenden Schritten werden wir ein multimodales Lappensystem erstellen, um Bilder basierend auf dem Deepseek Janus Pro 1B -Modell abzufragen.

    Schritt 1. Installieren Sie die erforderlichen Bibliotheken

    !pip install byaldi ollama pdf2image
    !sudo apt-get install -y poppler-utils
    !git clone https://github.com/deepseek-ai/Janus.git
    !pip install -e ./Janus
    Nach dem Login kopieren
    Nach dem Login kopieren

    Schritt 2. Modell zum Speichern von Bildeinbettungen

    import os
    from pathlib import Path
    from byaldi import RAGMultiModalModel
    import ollama
    # Initialize RAGMultiModalModel
    model1 = RAGMultiModalModel.from_pretrained("vidore/colqwen2-v0.1")
    Nach dem Login kopieren
    Nach dem Login kopieren

    byaldi bietet ein benutzerfreundliches Framework für die Einrichtung multimodaler Lappensysteme. Wie aus dem obigen Code erdenkt, laden wir ColqWen2, ein Modell, das für die effiziente Dokumentenindizierung mithilfe visueller Funktionen ausgelegt ist.

    Schritt 3. Laden des Bildes PDF

    # Use ColQwen2 to index and store the presentation
    index_name = "image_index"
    model1.index(input_path=Path("/content/PublicWaterMassMailing.pdf"),
        index_name=index_name,
        store_collection_with_index=True, # Stores base64 images along with the vectors
        overwrite=True
    )
    Nach dem Login kopieren

    Wir verwenden dieses PDF, um in den nächsten Schritten ein Lappensystem abzufragen und zu erstellen. Im obigen Code speichern wir das Bild PDF zusammen mit den Vektoren.

    Schritt 4. Abfrage & Abrufen von gespeicherten Bildern

    query = "How many clients drive more than 50% revenue?"
    returned_page = model1.search(query, k=1)[0]
    import base64
    # Example Base64 string (truncated for brevity)
    base64_string = returned_page['base64']
    
    # Decode the Base64 string
    image_data = base64.b64decode(base64_string)
    with open('output_image.png', 'wb') as image_file:
        image_file.write(image_data)
    Nach dem Login kopieren

    Die relevante Seite von den Seiten des PDF wird abgerufen und als output_image.png auf der Grundlage der Abfrage gespeichert.

    Schritt 5. Laden Sie Janus Pro Model

    .
    !pip install byaldi ollama pdf2image
    !sudo apt-get install -y poppler-utils
    !git clone https://github.com/deepseek-ai/Janus.git
    !pip install -e ./Janus
    Nach dem Login kopieren
    Nach dem Login kopieren
    • vlchatProcessor.from_Pretrainierte ("Deepseek-AI/Janus-pro-1b") lädt einen vorabrundeten Prozessor zum Umgang mit multimodalen Eingängen (Bilder und Text). Dieser Prozessor verarbeitet und erstellt Eingabedaten (wie Text und Bilder) für das Modell.
    • Der Tokenizer wird aus dem VlchatProcessor extrahiert. Es wird den Texteingang token und den Text in ein für das Modell geeignetes Format konvertieren.
    • AutomodelforcausAllm.from_Pretrained ("Deepseek-AI/Janus-pro-1b") lädt das vorgebildete Janus-Pro-Modell, insbesondere für die kausale Sprachmodellierung.
    • Außerdem wird ein multimodales Gesprächsformat eingerichtet, in dem der Benutzer sowohl Text als auch ein Bild eingibt.
    • Die load_pil_images (Konversation) ist eine Funktion, die wahrscheinlich die im Konversationsobjekt aufgeführten Bilder lädt und sie in PIL -Bildformat umwandelt, das üblicherweise für die Bildverarbeitung in Python verwendet wird.
    • Der -Prozessor Hier ist eine Instanz eines multimodalen Prozessors (des vlchatProcessor aus dem Deepseek Janus Pro -Modell), der sowohl Text- als auch Bilddaten als Eingabe nimmt.
    • prepe_inputs_embeds (Eingänge) ist eine Methode, die die verarbeiteten Eingänge annimmt (Eingänge enthalten sowohl den Text als auch das Bild) und die für das Modell erforderlichen Einbettungen vorbereitet, um eine Antwort zu generieren.
    • .
    .

    import os
    from pathlib import Path
    from byaldi import RAGMultiModalModel
    import ollama
    # Initialize RAGMultiModalModel
    model1 = RAGMultiModalModel.from_pretrained("vidore/colqwen2-v0.1")
    Nach dem Login kopieren
    Nach dem Login kopieren
    Schritt 6. Ausgangsgenerierung

    Der Code generiert eine Antwort aus dem Deepseek Janus Pro 1B -Modell unter Verwendung der vorbereiteten Eingabempfetten (Text und Bild). Es verwendet mehrere Konfigurationseinstellungen wie Polsterung, Start-/End -Token, maximale Token -Länge und ob Caching und Probenahme. Nachdem die Antwort generiert wurde, dekodiert sie die Token-IDs mit dem Tokenizer wieder in den menschlichen Lesbarungstext. Die dekodierte Ausgabe ist in der Antwortvariablen gespeichert.

    Der gesamte Code ist in diesem Colab -Notebook vorhanden.

    Ausgabe für die Abfrage Verbesserung des multimodalen Lappen mit Deepseek Janus Pro

    Ausgabe für eine andere Abfrage

    „Was war die Einnahmen in Frankreich?“

    Verbesserung des multimodalen Lappen mit Deepseek Janus Pro

    Die obige Antwort ist nicht genau, obwohl die relevante Seite durch TheColqWen2 Retriever abgerufen wurde, konnte das Deepseek Janus Pro 1B -Modell die genaue Antwort von der Seite nicht generieren. Die genaue Antwort sollte $ 2b betragen.

    Ausgabe für eine andere Abfrage

    "” Was war die Anzahl der Werbeaktionen seit Beginn des Geschäftsjahres? “

    Verbesserung des multimodalen Lappen mit Deepseek Janus Pro

    Die obige Antwort ist korrekt, da sie mit dem im PDF genannten Text übereinstimmt.

    Schlussfolgerungen

    Abschließend stellt das Deepseek Janus Pro 1B -Modell einen signifikanten Fortschritt in der multimodalen KI mit seiner entkoppelten Architektur dar, die sowohl das Bildverständnis als auch die Erzeugungsaufgaben optimiert. Janus Pro bietet durch die Verwendung separater visueller Encoder für diese Aufgaben und die Verfeinerung seiner Trainingsstrategie eine verbesserte Leistung bei der Erzeugung und Bildanalyse von Text zu Image. Dieser innovative Ansatz (multimodaler Rag mit Deepseek Janus Pro), kombiniert mit seiner Open-Source-Zugänglichkeit, macht es zu einem leistungsstarken Werkzeug für verschiedene Anwendungen im visuellen Verständnis und der Erstellung von KI-gesteuertem.

    Key Takeaways

    1. Multimodal AI mit Dual-Pfaden : Janus Pro 1B integriert sowohl die Text- als auch die Bildverarbeitung unter Verwendung separater Encoder für das Bildverständnis (Siglip) und die Bildgenerierung (Lamagen), wobei die aufgabenspezifische Leistung verbessert wird.
    2. entkoppierte Architektur: Das Modell trennt die visuelle Codierung in verschiedene Wege und ermöglicht die unabhängige Optimierung für das Bildverständnis und die Erzeugung, wodurch Konflikte bei Verarbeitungsaufgaben minimiert werden.
    3. Unified Transformator Backbone : Eine gemeinsame Transformatorarchitektur verschmilzt die Merkmale von Text und Bildern, wobei die multimodale Datenfusion für eine effektivere AI -Leistung strenger werden.
    4. Verbesserte Trainingsstrategie: Janus Pros optimiertes Trainingsansatz umfasst erhöhte Schritte in Stufe I und die Verwendung von spezialisierten Text-zu-Image-Daten in Stufe II, die die Trainingseffizienz und die Ausgangsqualität erheblich steigern.
    5. Open-Source-Zugänglichkeit: Janus Pro 1b ist auf GitHub unter der MIT-Lizenz verfügbar und fördert die weit verbreitete Verwendung und Anpassung in verschiedenen AI-gesteuerten Anwendungen.

    Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und wird nach Ermessen des Autors verwendet.

    häufig gestellte Fragen

    Q1. Was ist Deepseek Janus Pro 1b?

    Ans. Deepseek Janus Pro 1B ist ein multimodales KI -Modell, mit dem sowohl Text- Es verfügt über 1 Milliarde Parameter für eine effiziente Leistung bei Aufgaben wie Text-zu-Image-Erzeugung und Bildverständnis.

    Q2. Wie funktioniert die Architektur von Janus Pro 1b?

    Ans. Janus Pro verwendet eine einheitliche Transformatorarchitektur mit entkoppelter visueller Codierung. Dies bedeutet, dass es separate Pfade für das Verständnis und die Erzeugung von Bildern verwendet und die aufgabenspezifische Optimierung für jede Aufgabe ermöglicht.

    Q3. Wie unterscheidet sich der Trainingsprozess von Janus Pro von früheren Versionen?

    Ans. Janus Pro verbessert frühere Trainingsstrategien, indem sie die Schulungsschritte erhöhen, den ImageNet-Datensatz zugunsten spezialisierter Text-zu-Im-Im---Daten fallen und sich auf eine bessere Feinabstimmung für verbesserte Effizienz und Leistung konzentriert.

    Q4. Welche Art von Anwendungen kann von der Verwendung von Janus Pro 1B profitieren?

    Ans. Janus Pro 1b ist besonders nützlich für Aufgaben, die Text-zu-Image-Generierung, Bildverständnis und multimodale AI-Anwendungen umfassen, für die sowohl Bild- als auch Textverarbeitungsfunktionen

    Q5 erforderlich sind. Wie vergleicht sich Janus-Pro mit anderen Modellen wie Dall-e 3?

    Ans. Janus-Pro-7b übertrifft laut Deepseek Dall-e 3 in Benchmarks wie Geneval und DPG-Bench. Janus-Pro trennt das Verständnis/die Erzeugung, skaliert Daten/Modelle für die stabile Bildgenerierung und hält eine einheitliche, flexible und kostengünstige Struktur. Während beide Modelle die Erzeugung von Text-zu-Image-Erzeugung durchführen, bietet Janus-Pro auch Bildunterschriften, die Dall-e 3 nicht.

    nicht.

Das obige ist der detaillierte Inhalt vonVerbesserung des multimodalen Lappen mit Deepseek Janus Pro. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage