


Erledige 13 visuelle Sprachaufgaben! Das Harbin Institute of Technology veröffentlicht das multimodale Großmodell „Jiutian' mit einer Leistungssteigerung um 5 %
Um das Problem der unzureichenden visuellen Informationsextraktion in multimodalen großen Sprachmodellen zu lösen, schlugen Forscher des Harbin Institute of Technology (Shenzhen) ein zweischichtiges wissensverstärktes multimodales großes Sprachmodell vor – JiuTian-LION.
Der Inhalt, der neu geschrieben werden muss, ist: Papierlink: https://arxiv.org/abs/2311.11860
GitHub: https://github.com/rshaojimmy/JiuTian
Projekt-Homepage: https://rshaojimmy.github.io/Projects/JiuTian-LION
Im Vergleich zu bestehenden Arbeiten analysierte JiuTian zum ersten Mal die internen Konflikte zwischen Verständnisaufgaben auf Bildebene und Positionierungsaufgaben auf Regionsebene und schlug eine Feinabstimmungsstrategie für segmentierte Anweisungen und einen Hybridadapter vor, um eine gegenseitige Verbesserung der beiden Aufgaben zu erreichen.
Durch die Integration einer feinkörnigen räumlichen Wahrnehmung und semantischen visuellen Wissens auf hohem Niveau hat Jiutian erhebliche Leistungsverbesserungen bei 17 visuellen Sprachaufgaben erzielt, darunter Bildbeschreibung, visuelle Probleme und visuelle Lokalisierung (z. B. bis zu 5 beim visuellen räumlichen Denken). ) % Leistungsverbesserung), Erreichen des internationalen Spitzenniveaus in 13 Bewertungsaufgaben. Der Leistungsvergleich ist in Abbildung 1 dargestellt.
Abbildung 1: Im Vergleich zu anderen MLLMs hat Jiutian bei den meisten Aufgaben eine optimale Leistung erzielt.
JiuTian-LION
Durch die Bereitstellung multimodaler Wahrnehmungsfähigkeiten für große Sprachmodelle (LLMs) haben einige Arbeiten zur Generierung multimodaler großer Sprachmodelle (MLLMs) begonnen und bei vielen visuellen Sprachaufgaben bahnbrechende Fortschritte erzielt. Bestehende MLLMs verwenden jedoch hauptsächlich visuelle Encoder, die auf Bild-Text-Paaren vorab trainiert wurden, wie z. B. CLIP-ViT
Die Hauptaufgabe dieser visuellen Encoder besteht darin, die grobkörnige modale Ausrichtung von Bild und Text auf Bildebene zu lernen Ihnen fehlen umfassende visuelle Wahrnehmungs- und Informationsextraktionsfähigkeiten und sie sind nicht in der Lage, ein feinkörniges visuelles Verständnis durchzuführen Verständnis von MLLMs. Es gibt viele Mängel, wie z. B. Objektillusion, wie in Abbildung 2 dargestellt
Im Vergleich zu bestehenden multimodalen großen Sprachmodellen (MLLMs) verbessert Jiutian effektiv die visuellen Verständnisfähigkeiten von MLLMs, indem es feinkörniges visuelles Wissen über räumliches Bewusstsein und semantische visuelle Beweise auf hoher Ebene einfügt, genauere Textantworten generiert und reduziert Das Halluzinationsphänomen von MLLMs
Doppelschichtiges visuelles wissensverstärktes multimodales großes Sprachmodell-JiuTian-LION
Um die Mängel von MLLMs bei der Extraktion und dem Verständnis visueller Informationen zu beheben, schlugen Forscher A Es wird eine zweischichtige, durch visuelles Wissen erweiterte MLLM-Methode namens JiuTian-LION vorgeschlagen. Das spezifische Methodengerüst ist in Abbildung 3 dargestellt
Diese Methode verbessert MLLMs hauptsächlich unter zwei Aspekten: progressive Integration von feinkörnigem räumlich bewusstem visuellem Wissen (Progressive Integration von feinkörnigem räumlich bewusstem visuellem Wissen) und hoher Ebene Software unter Soft Prompts Soft Prompting von semantischen visuellen Beweisen auf hoher Ebene.
Konkret schlugen die Forscher eine Strategie zur Feinabstimmung segmentierter Anweisungen vor, um den internen Konflikt zwischen der Verständnisaufgabe auf Bildebene und der Lokalisierungsaufgabe auf Regionsebene zu lösen. Sie bringen nach und nach feinkörniges räumliches Bewusstseinswissen in MLLMs ein. Gleichzeitig fügten sie MLLMs Bildbeschriftungen als semantische visuelle Beweise auf hoher Ebene hinzu und verwendeten Soft-Prompting-Methoden, um die negativen Auswirkungen falscher Beschriftungen abzumildern. Das Rahmendiagramm des JiuTian-LION-Modells sieht wie folgt aus:
Diese Arbeit verwendet eine segmentierte Trainingsstrategie, um zunächst das Verständnis auf Bildebene und Positionierungsaufgaben auf Regionsebene basierend auf den Zweigen Q-Former und Vision Aggregator-MLP zu erlernen, und verwendet dann einen Hybridadapter mit einem Routing-Mechanismus, um verschiedene Aufgaben dynamisch zusammenzuführen in der letzten Trainingsphase Durchführung des verzweigten Wissensverbesserungsmodells an zwei Aufgaben.
Diese Arbeit extrahiert auch Bildbeschriftungen als semantische visuelle Beweise auf hoher Ebene über den RAM und schlägt dann eine Soft-Prompting-Methode vor, um den Effekt der semantischen Injektion auf hoher Ebene zu verbessern Wissen
Bei der direkten Durchführung eines einstufigen gemischten Trainings zu Verständnisaufgaben auf Bildebene (einschließlich Bildbeschreibung und visueller Beantwortung von Fragen) und Lokalisierungsaufgaben auf Regionsebene (einschließlich gerichtetem Ausdrucksverständnis, gerichteter Ausdruckserzeugung usw.), MLLMs Es kommt zu internen Konflikten zwischen den beiden Aufgaben. Daher kann nicht bei allen Aufgaben eine bessere Gesamtleistung erzielt werden.
Forscher glauben, dass dieser interne Konflikt hauptsächlich durch zwei Probleme verursacht wird. Das erste Problem ist das Fehlen eines Vortrainings für die modale Ausrichtung auf regionaler Ebene. Derzeit verwenden die meisten MLLMs mit Positionierungsfunktionen auf regionaler Ebene zunächst eine große Menge relevanter Daten für das Vortraining Modale Ausrichtung basierend auf begrenzten Trainingsressourcen. Visuelle Funktionsanpassung an Aufgaben auf Regionsebene.
Ein weiteres Problem ist der Unterschied in den Eingabe-Ausgabe-Mustern zwischen Verständnisaufgaben auf Bildebene und Lokalisierungsaufgaben auf Regionsebene. Letztere erfordern, dass das Modell zusätzlich bestimmte kurze Sätze über Objektkoordinaten versteht (in Form von
). . Um die oben genannten Probleme zu lösen, schlugen die Forscher eine Strategie zur Feinabstimmung segmentierter Anweisungen und einen Hybridadapter mit einem Routing-Mechanismus vor.Wie in Abbildung 4 dargestellt, haben die Forscher den einstufigen Feinabstimmungsprozess der Anweisungen in drei Phasen unterteilt:
Verwenden Sie ViT, Q-Former und einen Bildebenenadapter, um die Aufgabe des Verstehens auf Bildebene zu erlernen Globales visuelles Wissen; Verwendung von Vision Aggregator, MLP und Adaptern auf regionaler Ebene zum Erlernen von Positionierungsaufgaben auf regionaler Ebene mit feinkörnigem raumbezogenem visuellem Wissen. Es wird ein Hybridadapter mit einem Routing-Mechanismus vorgeschlagen, um visuelles Wissen unterschiedlicher Granularität dynamisch zu integrieren Geäst. Tabelle 3 zeigt die Leistungsvorteile der Feinabstimmungsstrategie für segmentierte Anweisungen gegenüber dem einstufigen Training. Abbildung 4: Die Feinabstimmungsstrategie für segmentierte Anweisungen für das Injizieren von Weichteilen fordert Die semantischen visuellen Beweise auf hoher Ebene müssen neu geschrieben werden
Die Forscher schlugen vor, Bildetiketten als wirksame Ergänzung zu den semantischen visuellen Beweisen auf hoher Ebene zu verwenden, um die globale visuelle Wahrnehmungsverständnisfähigkeit von MLLMs weiter zu verbessern
Konkret extrahieren Sie zunächst die Tags des Bildes über den RAM und verwenden Sie dann die spezifische Befehlsvorlage „Gemäß
“ in dieser Befehlsvorlage wird durch einen lernbaren Soft-Prompt-Vektor ersetzt.
In Verbindung mit dem spezifischen Ausdruck „verwenden oder teilweise verwenden“ in der Vorlage kann der Soft-Hint-Vektor das Modell anleiten, die potenziellen negativen Auswirkungen falscher Bezeichnungen abzumildern.
Experimentelle Ergebnisse
Die Forscher führten Auswertungen zu 17 Aufgaben-Benchmark-Sets durch, darunter Bildunterschrift, visuelle Fragebeantwortung (VQA) und instruktives Ausdrucksverständnis (REC).
Experimentelle Ergebnisse zeigen, dass Jiutian in 13 Bewertungssätzen das international führende Niveau erreicht hat. Insbesondere im Vergleich zu InstructBLIP und Shikra hat Jiutian umfassende und konsistente Leistungsverbesserungen bei Verständnisaufgaben auf Bildebene bzw. Positionierungsaufgaben auf Regionsebene erzielt und kann bei Aufgaben zum visuellen räumlichen Denken (VSR) eine Verbesserung von bis zu 5 % erzielen.
Wie aus Abbildung 5 ersichtlich ist, gibt es Unterschiede in den Fähigkeiten von Jiutian und anderen MLLMs bei verschiedenen multimodalen Aufgaben in visueller Sprache, was darauf hindeutet, dass Jiutian bessere Leistungen im Hinblick auf feinkörniges visuelles Verständnis und visuelle räumliche Denkfähigkeiten erbringt und dazu in der Lage ist Ausgabe mit weniger halluzinierender Textantwort
Der neu geschriebene Inhalt ist: Die fünfte Abbildung zeigt eine qualitative Analyse der Unterschiede in den Fähigkeiten des Jiutian Large Model, InstructBLIP und Shikra
Abbildung 6 Durch Stichprobenanalyse Es zeigt, dass das Jiutian-Modell sowohl bei visuellen Sprachaufgaben auf Bildebene als auch auf regionaler Ebene über hervorragende Verständnis- und Erkennungsfähigkeiten verfügt.
Das sechste Bild: Durch die Analyse weiterer Beispiele werden die Fähigkeiten des Jiutian-Großmodells aus der Perspektive des Bildes und des visuellen Verständnisses auf regionaler Ebene demonstriert
Zusammenfassung
(1) Dies Die Arbeit schlägt ein neues multimodales großes Sprachmodell vor – Jiutian: ein multimodales großes Sprachmodell, das durch zweischichtiges visuelles Wissen erweitert wird.
(2) Diese Arbeit wurde anhand von 17 Benchmark-Sets für visuelle Sprachaufgaben bewertet, einschließlich Bildbeschreibung, Beantwortung visueller Fragen und Verständnis des instruktiven Ausdrucks, von denen 13 Bewertungssets die derzeit beste Leistung erzielten.
(3) Diese Arbeit schlägt eine segmentierte Strategie zur Feinabstimmung von Anweisungen vor, um den internen Konflikt zwischen Bildebenenverständnis und Lokalisierungsaufgaben auf Regionsebene zu lösen und eine gegenseitige Verbesserung zwischen den beiden Aufgaben zu erreichen
(4) Dies Die Arbeit integriert erfolgreich das Verständnis auf Bildebene und Positionierungsaufgaben auf regionaler Ebene, um visuelle Szenen auf mehreren Ebenen umfassend zu verstehen. In Zukunft kann diese umfassende visuelle Verständnisfähigkeit auf verkörperte intelligente Szenen angewendet werden, um Robotern dabei zu helfen, besser und umfassender zu identifizieren und zu arbeiten die aktuelle Umgebung verstehen, um wirksame Entscheidungen zu treffen.
Das obige ist der detaillierte Inhalt vonErledige 13 visuelle Sprachaufgaben! Das Harbin Institute of Technology veröffentlicht das multimodale Großmodell „Jiutian' mit einer Leistungssteigerung um 5 %. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

Um die Zeitüberschreitung für Vue Axios festzulegen, können wir eine Axios -Instanz erstellen und die Zeitleitungsoption angeben: in globalen Einstellungen: vue.Prototyp. $ Axios = axios.create ({Timeout: 5000}); In einer einzigen Anfrage: this. $ axios.get ('/api/user', {timeout: 10000}).

Es gibt viele Gründe, warum MySQL Startup fehlschlägt und durch Überprüfung des Fehlerprotokolls diagnostiziert werden kann. Zu den allgemeinen Ursachen gehören Portkonflikte (prüfen Portbelegung und Änderung der Konfiguration), Berechtigungsprobleme (Überprüfen Sie den Dienst Ausführen von Benutzerberechtigungen), Konfigurationsdateifehler (Überprüfung der Parametereinstellungen), Datenverzeichniskorruption (Wiederherstellung von Daten oder Wiederaufbautabellenraum), InnoDB-Tabellenraumprobleme (prüfen IBDATA1-Dateien), Plug-in-Ladeversagen (Überprüfen Sie Fehlerprotokolle). Wenn Sie Probleme lösen, sollten Sie sie anhand des Fehlerprotokolls analysieren, die Hauptursache des Problems finden und die Gewohnheit entwickeln, Daten regelmäßig zu unterstützen, um Probleme zu verhindern und zu lösen.

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen

MySQL kann JSON -Daten zurückgeben. Die JSON_EXTRACT -Funktion extrahiert Feldwerte. Über komplexe Abfragen sollten Sie die Where -Klausel verwenden, um JSON -Daten zu filtern, aber auf die Leistungsauswirkungen achten. Die Unterstützung von MySQL für JSON nimmt ständig zu, und es wird empfohlen, auf die neuesten Versionen und Funktionen zu achten.

Die MySQL -Leistungsoptimierung muss von drei Aspekten beginnen: Installationskonfiguration, Indexierung und Abfrageoptimierung, Überwachung und Abstimmung. 1. Nach der Installation müssen Sie die my.cnf -Datei entsprechend der Serverkonfiguration anpassen, z. 2. Erstellen Sie einen geeigneten Index, um übermäßige Indizes zu vermeiden und Abfrageanweisungen zu optimieren, z. B. den Befehl Erklärung zur Analyse des Ausführungsplans; 3. Verwenden Sie das eigene Überwachungstool von MySQL (ShowProcessList, Showstatus), um die Datenbankgesundheit zu überwachen und die Datenbank regelmäßig zu sichern und zu organisieren. Nur durch kontinuierliche Optimierung dieser Schritte kann die Leistung der MySQL -Datenbank verbessert werden.

Der MySQL -Primärschlüssel kann nicht leer sein, da der Primärschlüssel ein Schlüsselattribut ist, das jede Zeile in der Datenbank eindeutig identifiziert. Wenn der Primärschlüssel leer sein kann, kann der Datensatz nicht eindeutig identifiziert werden, was zu Datenverwirrung führt. Wenn Sie selbstsinkrementelle Ganzzahlsspalten oder UUIDs als Primärschlüssel verwenden, sollten Sie Faktoren wie Effizienz und Raumbelegung berücksichtigen und eine geeignete Lösung auswählen.
