Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

WBOY
Freigeben: 2024-01-29 09:15:26
nach vorne
984 Leute haben es durchsucht

Ein „erstes multimodales Großmodell für junge Leute“ namens Vary-toy ist da!

Die Modellgröße beträgt weniger als 2B, es kann auf Consumer-Grafikkarten trainiert werden und kann problemlos auf alten GTX1080ti 8G-Grafikkarten ausgeführt werden.

Möchten Sie ein Dokumentbild in das Markdown-Format konvertieren? In der Vergangenheit waren mehrere Schritte wie Texterkennung, Layouterkennung und -sortierung, Verarbeitung von Formeltabellen und Textbereinigung erforderlich.

Jetzt brauchen Sie nur noch einen Befehl:

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

Egal Chinesisch oder Englisch, großer Text im Bild kann in wenigen Minuten extrahiert werden:

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

Die Objekterkennung auf einem Bild kann immer noch die Art mit spezifischem Ergebnis liefern Koordinaten:

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

Diese Studie wurde gemeinsam von Forschern von Megvii, der National University of Science and Technology und der Huazhong University vorgeschlagen.

Berichten zufolge deckt Vary-toy, obwohl es klein ist, fast alle Funktionen in der aktuellen Mainstream-Forschung von LVLM (Large Scale Visual Language Model) ab: Dokument-OCR-Erkennung(Document OCR), visuelle Positionierung(Visual Erdung) , Bildunterschrift, visuelle Beantwortung von Fragen (VQA) .

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

Jetzt sind der Code und das Modell von Vary-Toy Open Source und es steht eine Online-Demo zum Probespielen zur Verfügung.

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

Während die Internetnutzer ihr Interesse bekunden, konzentrieren sie sich auf die

alte·GTX1080 und ihre Stimmung ist wie folgt:

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

„Miniaturversion“ Vary

Tatsächlich hat das Vary-Team Vary bereits im Dezember veröffentlicht Letztes Jahr lautete das erste Forschungsergebnis „Vary: Scaling up the Vision Vocabulary for Large Vision-Language Models“.

Forscher wiesen auf die Mängel der visuellen CLIP-Wortliste in Bezug auf die Fähigkeit zur dichten Wahrnehmung hin und verwendeten ein einfaches und effektives Wortlistenerweiterungsschema, um ein neues OCR-Paradigma bereitzustellen.

Vary hat seit seiner Veröffentlichung große Aufmerksamkeit erhalten. Derzeit hat es mehr als 1,2.000 Sterne auf Github

, aber viele Leute können es aufgrund begrenzter Ressourcen nicht ausführen.

Angesichts der Tatsache, dass es relativ wenige „kleine“ VLMs gibt, die gut auf Open Source basieren und eine hervorragende Leistung aufweisen, hat das Team neu Vary-toy herausgebracht, das als „erstes Multi-Mode-Großmodell für junge Leute“ bekannt ist.

Im Vergleich zu Vary ist Vary-toy nicht nur kleiner, sondern trainiert auch ein

stärkeres visuelles Vokabular. Das neue Vokabular beschränkt das Modell nicht mehr auf OCR auf Dokumentebene, sondern bietet eine universellere und umfassendere visuelle Wortliste , das nicht nur OCR auf Dokumentebene, sondern auch eine allgemeine visuelle Zielerkennung durchführen kann. Wie geht das?

Die Modellstruktur und der Trainingsprozess von Vary-toy sind in der folgenden Abbildung dargestellt. Im Allgemeinen ist das Training in zwei Phasen unterteilt.

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführenZunächst wird in der ersten Stufe die Vary-tiny+-Struktur verwendet, um ein visuelles Vokabular vorab zu trainieren, das besser ist als das ursprüngliche Vary. Das neue visuelle Vokabular löst das Problem, dass das ursprüngliche Vary es nur verwendet für OCR auf Dokumentebene. Das Problem der Kapazitätsverschwendung und das Problem, dass die Vorteile des SAM-Vortrainings nicht vollständig genutzt werden.

Dann wird in der zweiten Stufe das in der ersten Stufe trainierte visuelle Vokabular in die endgültige Struktur für das Multitask-Training/SFT zusammengeführt.

Wie wir alle wissen, ist ein gutes Datenverhältnis entscheidend, um ein voll funktionsfähiges VLM zu generieren.

In der Vortrainingsphase verwendete Vary-toy also 5 Aufgabentypen von Daten, um den Dialog aufzubauen. Das Datenverhältnis und die Beispielaufforderung sind in der folgenden Abbildung dargestellt:

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführenIn der SFT-Phase nur LLaVA -80K Daten wurden verwendet. Weitere technische Details finden Sie im technischen Bericht von Vary-toy.

Experimentelle Testergebnisse

Vary-toys Ergebnisse in den vier Benchmark-Tests von DocVQA, ChartQA, RefCOCO und MMVet sind wie folgt:

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

Vary-toy kann 65,6 % ANLS bei DocVQA, 59,1 % Genauigkeit bei ChartQA und 88,1 % Genauigkeit bei RefCOCO erreichen:

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

MMVet kann 29 % Genauigkeit erreichen, unabhängig davon, ob es sich um Benchmark-Scores oder Visualisierungseffekte handelt , Vary-Toy, das weniger als 2B hat, kann sogar mit der Leistung einiger beliebter 7B-Modelle mithalten.

Multimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen

Projektlink:
[1]https://arxiv.org/abs/2401.12503

[3]https://varytoy.github.io/

Das obige ist der detaillierte Inhalt vonMultimodale große Modelle werden von jungen Leuten online mit Open Source bevorzugt: 1080Ti lässt sich problemlos ausführen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage