Heim > Technologie-Peripheriegeräte > KI > Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösen

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösen

王林
Freigeben: 2023-07-14 15:37:06
nach vorne
1574 Leute haben es durchsucht

Derzeit haben große Sprachmodelle (LLM) eine Welle von Veränderungen im Bereich der Verarbeitung natürlicher Sprache (NLP) ausgelöst. Wir sehen, dass LLM über starke Emergenzfähigkeiten verfügt und bei komplexen Sprachverständnisaufgaben, Generierungsaufgaben und sogar Argumentationsaufgaben gute Leistungen erbringt. Dies inspiriert Menschen dazu, das Potenzial von LLM in einem anderen Teilbereich des maschinellen Lernens – Computer Vision (CV) – weiter zu erkunden.

Eines der großen Talente von LLMs ist ihre Fähigkeit, im Kontext zu lernen. Kontextuelles Lernen aktualisiert keine Parameter des LLM, zeigt jedoch erstaunliche Ergebnisse bei verschiedenen NLP-Aufgaben. Kann GPT also visuelle Aufgaben durch kontextuelles Lernen lösen?

Kürzlich haben Forscher von Google und der Carnegie Mellon University (CMU) gemeinsam einen Artikel veröffentlicht, der zeigt, dass dies machbar erscheint, solange wir Bilder (oder andere nichtsprachliche Modalitäten) in eine Sprache umwandeln können, die LLM verstehen kann.

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösenBilder

Papieradresse: https://arxiv.org/abs/2306.17842

Dieses Papier enthüllt die Fähigkeit von PaLM oder GPT, visuelle Aufgaben durch kontextuelles Lernen zu lösen und schlägt eine neue Methode SPAE vor ( Semantischer Pyramiden-AutoEncoder). Dieser neue Ansatz ermöglicht es LLM, Bildgenerierungsaufgaben ohne Parameteraktualisierungen durchzuführen. Dies ist auch die erste erfolgreiche Methode, kontextuelles Lernen zu nutzen, um LLM in die Lage zu versetzen, Bildinhalte zu generieren.

Werfen wir zunächst einen Blick auf die experimentellen Ergebnisse von LLM bei der Generierung von Bildinhalten durch Kontextlernen.

Durch die Bereitstellung von 50 Handschriftbildern in einem bestimmten Kontext fordert das Papier beispielsweise PaLM 2 auf, komplexe Fragen zu beantworten, die die Generierung digitaler Bilder als Ausgabe erfordern: Erzeugen Sie realistische Bilder aus dem wirklichen Leben ohne Eingabe:

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösenBilder

Neben der Generierung von Bildern kann PaLM 2 durch kontextuelles Lernen auch eine Bildbeschreibung durchführen:

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösen

Es gibt auch bildbezogene Probleme. Visuelle Fragen und Antworten:

BilderDas visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösen

können sogar entrauscht werden, um Videos zu generieren:

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösenBilder

Methodenübersicht

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösenTatsächlich ist die Konvertierung von Bildern in eine Sprache, die LLM verstehen kann, ein Problem, das im Visual Transformer (ViT)-Artikel untersucht wurde . In diesem Artikel von Google und CMU gehen sie noch einen Schritt weiter – indem sie tatsächliche Wörter zur Darstellung von Bildern verwenden.

Dieser Ansatz ähnelt dem Bau eines Turms voller Text, der die Semantik und Details des Bildes erfasst. Diese textgefüllte Darstellung ermöglicht die einfache Generierung von Bildbeschreibungen und ermöglicht es LLMs, bildbezogene Fragen zu beantworten und sogar Bildpixel zu rekonstruieren.

In dieser Studie wird insbesondere vorgeschlagen, das Bild mit einem trainierten Encoder und CLIP-Modell in einen Token-Raum umzuwandeln. Anschließend wird LLM verwendet, um geeignete lexikalische Token zu generieren zurück in Pixelraum konvertiert. Dieser geniale Prozess wandelt Bilder in eine Sprache um, die LLM verstehen kann, sodass wir die generative Kraft von LLM bei Bildverarbeitungsaufgaben nutzen können.

Experimente und Ergebnisse

In dieser Studie wurde SPAE experimentell mit den SOTA-Methoden Frozen und LQAE verglichen. Die Ergebnisse sind in Tabelle 1 unten aufgeführt. SPAEGPT übertrifft LQAE bei allen Aufgaben und verwendet dabei nur 2 % der Token.

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösenImage

Insgesamt zeigen Tests des Mini-ImageNet-Benchmarks, dass die SPAE-Methode die Leistung im Vergleich zur vorherigen SOTA-Methode um 25 % verbessert.

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösenBilder

Um die Wirksamkeit der SPAE-Designmethode zu überprüfen, wurde in dieser Studie ein Ablationsexperiment durchgeführt. Die experimentellen Ergebnisse sind in Tabelle 4 und Abbildung 10 unten dargestellt:

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösenBilder

Das visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösenBilder

Interessierte Leser können den Originaltext des Artikels lesen, um mehr über den Forschungsinhalt zu erfahren.

Das obige ist der detaillierte Inhalt vonDas visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage