Ich weiß nicht, ob Gemini 1.5 Pro diese Technologie verwendet.
Google hat einen weiteren großen Schritt gemacht und das Transformer-Modell der nächsten Generation Infini-Transformer herausgebracht.
Infini-Transformer bietet eine effiziente Möglichkeit, Transformer-basierte große Sprachmodelle (LLM) auf unendlich lange Eingaben zu skalieren, ohne den Speicher- und Rechenbedarf zu erhöhen. Mit dieser Technologie konnten die Forscher die Kontextlänge eines 1B-Modells erfolgreich auf 1 Million erhöhen. Angewandt auf das 8B-Modell kann das Modell die 500K-Buchzusammenfassungsaufgabe bewältigen. Die Transformer-Architektur dominiert seit der Veröffentlichung des bahnbrechenden Forschungspapiers „Attention is All You Need“ im Jahr 2017 den Bereich der generativen künstlichen Intelligenz. Googles optimiertes Transformer-Design ist in letzter Zeit relativ häufig vorgekommen. Vor einigen Tagen haben sie die Transformer-Architektur aktualisiert und Mixture-of-Depths (MoD) veröffentlicht, wodurch das vorherige Transformer-Rechenmodell geändert wurde. Innerhalb weniger Tage veröffentlichte Google diese neue Studie. Forscher, die sich auf dem Gebiet der KI konzentrieren, wissen alle, wie wichtig das Gedächtnis ist. Es ist der Eckpfeiler der Intelligenz und kann für effizientes Rechnen im LLM sorgen. Aufgrund der inhärenten Eigenschaften des Aufmerksamkeitsmechanismus, d. h. des Aufmerksamkeitsmechanismus in Transformer, weisen Transformer und Transformer-basiertes LLM jedoch eine quadratische Komplexität sowohl bei der Speichernutzung als auch bei der Rechenzeit auf. Für ein 500B-Modell mit einer Batchgröße von 512 und einer Kontextlänge von 2048 beträgt der Speicherbedarf des Aufmerksamkeitsschlüsselwertstatus (KV) beispielsweise 3 TB. Tatsächlich muss die Standard-Transformer-Architektur das LLM jedoch manchmal auf längere Sequenzen (z. B. 1 Million Token) erweitern, was einen enormen Speicheraufwand mit sich bringt und mit zunehmender Kontextlänge auch die Bereitstellungskosten steigen. Auf dieser Grundlage hat Google einen wirksamen Ansatz eingeführt, dessen Schlüsselkomponente eine neue Aufmerksamkeitstechnologie namens Infini-Attention ist. Im Gegensatz zu herkömmlichen Transformern, die lokale Aufmerksamkeit nutzen, um alte Fragmente zu verwerfen und Speicherplatz für neue Fragmente freizugeben. Infini-attention fügt komprimierenden Speicher hinzu, der gebrauchte alte Fragmente im komprimierten Speicher speichern kann. Bei der Ausgabe werden die aktuellen Kontextinformationen und die Informationen im komprimierten Speicher aggregiert, sodass das Modell den vollständigen Kontextverlauf abrufen kann. Diese Methode ermöglicht es Transformer LLM, auf unendlich lange Kontexte mit begrenztem Speicher zu skalieren und extrem lange Eingaben für Berechnungen im Streaming-Verfahren zu verarbeiten. Experimente zeigen, dass die Methode die Basislinie bei Langkontext-Sprachmodellierungs-Benchmarks übertrifft und gleichzeitig die Speicherparameter um mehr als das Hundertfache reduziert. Das Modell erreicht eine bessere Verwirrung, wenn es mit einer Sequenzlänge von 100 KB trainiert wird. Darüber hinaus ergab die Studie, dass das 1B-Modell auf Schlüsselinstanzen mit 5K-Sequenzlängen optimiert wurde, wodurch das 1M-Längenproblem gelöst wurde. Abschließend zeigt das Papier, dass das 8B-Modell mit Infini-Aufmerksamkeit nach kontinuierlichem Vortraining und Aufgabenfeinabstimmung neue SOTA-Ergebnisse bei der 500K langen Buchzusammenfassungsaufgabe erzielte. Die Beiträge dieses Artikels sind wie folgt zusammengefasst:
- Führt einen praktischen und leistungsstarken Aufmerksamkeitsmechanismus Infini-Aufmerksamkeit ein – mit komprimiertem Langzeitgedächtnis und lokaler kausaler Aufmerksamkeit, der effektiv genutzt werden kann modellieren Sie langfristige und kurzfristige Kontextabhängigkeiten;
- Infini-Attention nimmt minimale Änderungen an der standardmäßig skalierten Punktproduktaufmerksamkeit vor und ist so konzipiert, dass es ein kontinuierliches Plug-and-Play-Vortraining und Selbstlernen über lange Kontexte unterstützt. Anpassung;
- Diese Methode ermöglicht es Transformer LLM, extrem lange Eingaben über Streams zu verarbeiten und auf unendlich lange Kontexte mit begrenzten Speicher- und Rechenressourcen zu skalieren. H-Paper-Link: https://arxiv.org/pdf/2404.07143.pdf
Infini-attention ermöglicht Transformer LLM die effiziente Verarbeitung unendlich langer Eingaben mit begrenztem Speicherbedarf und begrenztem Rechenaufwand. Wie in Abbildung 1 unten dargestellt, integriert Infini-attention komprimierten Speicher in den gewöhnlichen Aufmerksamkeitsmechanismus und baut maskierte lokale Aufmerksamkeit und langfristige lineare Aufmerksamkeitsmechanismen in einem einzigen Transformer-Block auf.
- Diese subtile, aber entscheidende Änderung der Transformer-Aufmerksamkeitsschicht kann das Kontextfenster bestehender LLMs durch kontinuierliches Vortraining und Feinabstimmung auf unendliche Längen erweitern.
-
Infini-Attention übernimmt alle Schlüssel-, Wert- und Abfragezustände der Standard-Aufmerksamkeitsberechnungen für die Konsolidierung und den Abruf des Langzeitgedächtnisses und speichert den alten KV-Aufmerksamkeitszustand im komprimierten Speicher, anstatt sie wie der Standard-Aufmerksamkeitsmechanismus zu verwerfen.Bei der Verarbeitung nachfolgender Sequenzen verwendet Infini-attention den Aufmerksamkeitsabfragestatus, um Werte aus dem Speicher abzurufen. Um die endgültige Kontextausgabe zu berechnen, aggregiert Infini-attention die Abrufwerte des Langzeitgedächtnisses und den lokalen Aufmerksamkeitskontext. Wie in Abbildung 2 unten dargestellt, verglich das Forschungsteam Infini-Transformer und Transformer-XL basierend auf der Infini-Aufmerksamkeit. Ähnlich wie Transformer-XL arbeitet Infini-Transformer mit einer Folge von Segmenten und berechnet den standardmäßigen kausalen Punktprodukt-Aufmerksamkeitskontext in jedem Segment. Daher ist die Berechnung der Skalarproduktaufmerksamkeit in gewissem Sinne lokal. Allerdings verwirft die lokale Aufmerksamkeit den Aufmerksamkeitszustand des vorherigen Segments, wenn sie das nächste Segment verarbeitet, aber Infini-Transformer verwendet den alten KV-Aufmerksamkeitszustand wieder, um den gesamten Kontextverlauf durch komprimierte Speicherung aufrechtzuerhalten. Daher verfügt jede Aufmerksamkeitsschicht von Infini-Transformer über einen globalen komprimierten Zustand und einen lokalen feinkörnigen Zustand. Ähnlich wie bei der Multi-Head-Aufmerksamkeit (MHA) verwaltet Infini-Attention zusätzlich zur Punktproduktaufmerksamkeit auch H parallel komprimierte Erinnerungen für jede Aufmerksamkeitsschicht (H ist die Anzahl der Aufmerksamkeitsköpfe). Tabelle 1 unten listet den Kontextspeicherbedarf und die effektive Kontextlänge auf, die von mehreren Modellen basierend auf Modellparametern und Eingabesegmentlänge definiert werden. Infini-Transformer unterstützt unendliche Kontextfenster mit begrenztem Speicherbedarf. Die Studie evaluierte das Infini-Transformer-Modell zur Sprachmodellierung mit langen Kontexten, zum Abrufen von Schlüsselkontextblöcken mit einer Länge von 1 Mio. und zu Buchzusammenfassungsaufgaben mit einer Länge von 500.000, die eine extrem lange Eingabesequenz aufweisen. Für die Sprachmodellierung entschieden sich die Forscher dafür, das Modell von Grund auf zu trainieren, während die Forscher für die Schlüssel- und Buchzusammenfassungsaufgaben ein kontinuierliches Vortraining von LLM verwendeten, um die Plug-and-Play-Anpassbarkeit von Infini-attention für lange Kontexte zu beweisen. Sprachmodellierung mit langem Kontext. Die Ergebnisse in Tabelle 2 zeigen, dass Infini-Transformer die Baselines von Transformer-XL und Memorizing Transformers übertrifft und im Vergleich zum Memorizing Transformer-Modell 114-mal weniger Parameter speichert. Schlüsselmission. Tabelle 3 zeigt den Infini-Transformer, der auf eine Eingabe mit einer Länge von 5 KB fein abgestimmt ist und die Schlüsselaufgabe bis zu einer Kontextlänge von 1 MB löst. Die Eingabetoken im Experiment lagen zwischen 32.000 und 1 Mio. Für jede Testteilmenge kontrollierten die Forscher die Position des Schlüssels so, dass er sich nahe dem Anfang, der Mitte oder dem Ende der Eingabesequenz befand. Experimente berichten von Nullschussgenauigkeit und Feinabstimmungsgenauigkeit. Nach 400 Feinabstimmungsschritten an einer Eingabe mit 5K Länge löst Infini-Transformer Aufgaben mit einer Kontextlänge von bis zu 1M. Zusammenfassende Aufgaben. Tabelle 4 vergleicht Infini-Transformer mit einem Encoder-Decoder-Modell, das speziell für die Zusammenfassungsaufgabe entwickelt wurde. Die Ergebnisse zeigen, dass Infini-Transformer die bisherigen besten Ergebnisse übertrifft und durch die Verarbeitung des gesamten Buchtextes neue SOTA auf BookSum erreicht. Die Forscher haben auch den gesamten Rouge-Score der BookSum-Datenvalidierungsaufteilung in Abbildung 4 dargestellt. Der Polylinientrend zeigt, dass Infini-Transformer die zusammenfassenden Leistungsmetriken verbessern, wenn die Eingabelänge zunimmt.
Das obige ist der detaillierte Inhalt vonDurch die direkte Erweiterung auf unendliche Länge beendet Google Infini-Transformer die Debatte über die Kontextlänge. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!