Derzeit haben große Sprachmodelle (LLM) eine Welle von Veränderungen im Bereich der Verarbeitung natürlicher Sprache (NLP) ausgelöst. Wir sehen, dass LLM über starke Emergenzfähigkeiten verfügt und bei komplexen Sprachverständnisaufgaben, Generierungsaufgaben und sogar Argumentationsaufgaben gute Leistungen erbringt. Dies inspiriert Menschen dazu, das Potenzial von LLM in einem anderen Teilbereich des maschinellen Lernens – Computer Vision (CV) – weiter zu erkunden.
Eines der großen Talente von LLMs ist ihre Fähigkeit, im Kontext zu lernen. Kontextuelles Lernen aktualisiert keine Parameter des LLM, zeigt jedoch erstaunliche Ergebnisse bei verschiedenen NLP-Aufgaben. Kann GPT also visuelle Aufgaben durch kontextuelles Lernen lösen?
Kürzlich haben Forscher von Google und der Carnegie Mellon University (CMU) gemeinsam einen Artikel veröffentlicht, der zeigt, dass dies machbar erscheint, solange wir Bilder (oder andere nichtsprachliche Modalitäten) in eine Sprache umwandeln können, die LLM verstehen kann.
Bilder
Papieradresse: https://arxiv.org/abs/2306.17842
Dieses Papier enthüllt die Fähigkeit von PaLM oder GPT, visuelle Aufgaben durch kontextuelles Lernen zu lösen und schlägt eine neue Methode SPAE vor ( Semantischer Pyramiden-AutoEncoder). Dieser neue Ansatz ermöglicht es LLM, Bildgenerierungsaufgaben ohne Parameteraktualisierungen durchzuführen. Dies ist auch die erste erfolgreiche Methode, kontextuelles Lernen zu nutzen, um LLM in die Lage zu versetzen, Bildinhalte zu generieren.
Werfen wir zunächst einen Blick auf die experimentellen Ergebnisse von LLM bei der Generierung von Bildinhalten durch Kontextlernen.
Durch die Bereitstellung von 50 Handschriftbildern in einem bestimmten Kontext fordert das Papier beispielsweise PaLM 2 auf, komplexe Fragen zu beantworten, die die Generierung digitaler Bilder als Ausgabe erfordern: Erzeugen Sie realistische Bilder aus dem wirklichen Leben ohne Eingabe:
Bilder
Neben der Generierung von Bildern kann PaLM 2 durch kontextuelles Lernen auch eine Bildbeschreibung durchführen:
Es gibt auch bildbezogene Probleme. Visuelle Fragen und Antworten:
Bilder
können sogar entrauscht werden, um Videos zu generieren:
Bilder
Methodenübersicht
Tatsächlich ist die Konvertierung von Bildern in eine Sprache, die LLM verstehen kann, ein Problem, das im Visual Transformer (ViT)-Artikel untersucht wurde . In diesem Artikel von Google und CMU gehen sie noch einen Schritt weiter – indem sie tatsächliche Wörter zur Darstellung von Bildern verwenden.
In dieser Studie wird insbesondere vorgeschlagen, das Bild mit einem trainierten Encoder und CLIP-Modell in einen Token-Raum umzuwandeln. Anschließend wird LLM verwendet, um geeignete lexikalische Token zu generieren zurück in Pixelraum konvertiert. Dieser geniale Prozess wandelt Bilder in eine Sprache um, die LLM verstehen kann, sodass wir die generative Kraft von LLM bei Bildverarbeitungsaufgaben nutzen können.
In dieser Studie wurde SPAE experimentell mit den SOTA-Methoden Frozen und LQAE verglichen. Die Ergebnisse sind in Tabelle 1 unten aufgeführt. SPAEGPT übertrifft LQAE bei allen Aufgaben und verwendet dabei nur 2 % der Token.
Image
Insgesamt zeigen Tests des Mini-ImageNet-Benchmarks, dass die SPAE-Methode die Leistung im Vergleich zur vorherigen SOTA-Methode um 25 % verbessert.
Bilder
Um die Wirksamkeit der SPAE-Designmethode zu überprüfen, wurde in dieser Studie ein Ablationsexperiment durchgeführt. Die experimentellen Ergebnisse sind in Tabelle 4 und Abbildung 10 unten dargestellt:
Bilder
Bilder
Interessierte Leser können den Originaltext des Artikels lesen, um mehr über den Forschungsinhalt zu erfahren.
Das obige ist der detaillierte Inhalt vonDas visuelle Talent großer Sprachmodelle: GPT kann auch visuelle Aufgaben durch kontextuelles Lernen lösen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!