Im Jahr 2023 wird der Status von Transformer, dem dominierenden Akteur im Bereich der großen KI-Modelle, in Frage gestellt. Es ist eine neue Architektur namens „Mamba“ entstanden. Dabei handelt es sich um ein selektives Zustandsraummodell, das in der Sprachmodellierung mit Transformer vergleichbar ist und dieses möglicherweise sogar übertrifft. Gleichzeitig kann Mamba mit zunehmender Kontextlänge eine lineare Skalierung erreichen, was es ihm ermöglicht, Sequenzen mit einer Länge von einer Million Wörtern zu verarbeiten und den Inferenzdurchsatz bei der Verarbeitung realer Daten um das Fünffache zu verbessern. Diese bahnbrechende Leistungsverbesserung ist auffällig und eröffnet neue Möglichkeiten für die Entwicklung des KI-Bereichs.
Mehr als einen Monat nach seiner Veröffentlichung begann Mamba allmählich seinen Einfluss zu zeigen und brachte viele Projekte wie MoE-Mamba, Vision Mamba, VMamba, U-Mamba, MambaByte usw. hervor. Mamba hat großes Potenzial gezeigt, die Mängel von Transformer kontinuierlich zu überwinden. Diese Entwicklungen zeigen die kontinuierliche Entwicklung und Weiterentwicklung von Mamba und eröffnen neue Möglichkeiten im Bereich der künstlichen Intelligenz.
Allerdings erlebte dieser aufstrebende „Stern“ beim ICLR-Treffen 2024 einen Rückschlag. Die neuesten öffentlichen Ergebnisse zeigen, dass sich Mambas Papier immer noch im Status „Ausstehend“ befindet. Wir können seinen Namen nur in der Spalte „Ausstehende Entscheidung“ sehen und wir können nicht feststellen, ob es verzögert oder abgelehnt wurde.
Insgesamt erhielt Mamba Bewertungen von vier Rezensenten, die jeweils 8/8/6/3 waren. Einige Leute sagten, es sei wirklich rätselhaft, nach einer solchen Bewertung immer noch abgelehnt zu werden.
Um zu verstehen, warum, müssen wir uns ansehen, was die Rezensenten gesagt haben, die niedrige Bewertungen abgegeben haben.
Papierrezensionsseite: https://openreview.net/forum?id=AL1fq05o7H
In der Bewertungsrückmeldung erläuterte der Rezensent, der eine Bewertung von „3: ablehnen, nicht gut genug“ gab, mehrere Meinungen zu Mamba:
Gedanken zum Modelldesign:
Gedanken zum Experiment:
Darüber hinaus wies ein anderer Rezensent auch auf die Mängel von Mamba hin: Das Modell hat während des Trainings immer noch sekundären Speicherbedarf wie Transformers.
Nachdem das Autorenteam die Meinungen aller Rezensenten zusammengefasst hatte, überarbeitete und verbesserte das Autorenteam auch den Inhalt des Papiers und fügte neue experimentelle Ergebnisse und Analysen hinzu:
Der Autor hat das vorab trainierte H3-Modell mit einer Größe von 125M-2,7B-Parametern heruntergeladen und eine Reihe von Bewertungen durchgeführt. Mamba schneidet bei allen Sprachbewertungen deutlich besser ab. Es ist erwähnenswert, dass es sich bei diesen H3-Modellen um Hybridmodelle mit quadratischer Aufmerksamkeit handelt, während das reine Modell des Autors, das nur die lineare Mamba-Schicht verwendet, bei allen Indikatoren deutlich besser ist.
Der Bewertungsvergleich mit dem vorab trainierten H3-Modell sieht wie folgt aus:
wie in der Abbildung unten gezeigt Im Vergleich zum 3B-Open-Source-Modell, das mit der gleichen Anzahl von Token (300B) trainiert wurde, ist Mamba in jedem Bewertungsergebnis überlegen. Es ist sogar mit Modellen im Maßstab 7B vergleichbar: Beim Vergleich von Mamba (2,8B) mit OPT, Pythia und RWKV (7B) erreicht Mamba bei jedem Benchmark die beste Durchschnittspunktzahl und die beste/zweitbeste Punktzahl.
Der Autor hat eine Abbildung beigefügt, die die Längenextrapolation des vorab trainierten parametrischen 3B-Sprachmodells bewertet:
Die Grafik zeigt den durchschnittlichen Verlust pro Position (Protokolllesbarkeit). Die Verwirrung des ersten Tokens ist hoch, da es keinen Kontext hat, während die Verwirrung sowohl von Mamba als auch vom Basistransformer (Pythia) vor der Trainingskontextlänge (2048) zunimmt. Interessanterweise verbessert sich die Lösbarkeit von Mamba über den Trainingskontext hinaus bis zu einer Länge von etwa 3000 deutlich.
Der Autor betont, dass die Längenextrapolation nicht die direkte Motivation des Modells in diesem Artikel ist, sondern behandelt sie als zusätzliche Funktion:
Der Autor analysierte die Ergebnisse mehrerer Arbeiten und zeigte, dass Mamba auf WikiText-103 deutlich besser abschneidet als andere mehr als 20 aktuelle subquadratische Sequenzen.
Trotzdem sind zwei Monate vergangen und dieses Papier befindet sich immer noch im Verfahren „Entscheidung ausstehend“, ohne dass es ein klares Ergebnis für „Annahme“ oder „Ablehnung“ gibt.
Bei großen KI-Top-Konferenzen ist die „explosive Zahl der Einreichungen“ ein lästiges Problem, sodass Gutachter mit begrenzter Energie unweigerlich Fehler machen. Dies hat zur Ablehnung vieler berühmter Artikel in der Geschichte geführt, darunter YOLO, Transformer XL, Dropout, Support Vector Machine (SVM), Wissensdestillation, SIFT und der Webseiten-Ranking-Algorithmus der Google-Suchmaschine PageRank (siehe: „Das berühmte YOLO und PageRank“) „Einflussreiche Forschung wurde von der obersten CS-Konferenz abgelehnt“).
Auch Yann LeCun, einer der drei Giganten des Deep Learning, ist ein großer Papiermacher, der oft abgelehnt wird. Gerade eben twitterte er, dass sein 1887-mal zitierter Aufsatz „Deep Convolutional Networks on Graph-Structured Data“ ebenfalls von der Spitzenkonferenz abgelehnt wurde.
Während der ICML 2022 reichte er sogar „drei Artikel ein und drei wurden abgelehnt.“
Nur weil das Papier von einer bestimmten Spitzenkonferenz abgelehnt wird, heißt das nicht, dass es keinen Wert hat. Von den oben genannten abgelehnten Beiträgen entschieden sich viele für die Übertragung auf andere Konferenzen und wurden schließlich angenommen. Daher schlugen Internetnutzer vor, dass Mamba zu COLM wechseln sollte, das von jungen Wissenschaftlern wie Chen Danqi gegründet wurde. COLM ist ein akademischer Ort, der sich der Sprachmodellierungsforschung widmet und sich auf das Verständnis, die Verbesserung und die Kommentierung der Entwicklung der Sprachmodelltechnologie konzentriert. Er ist möglicherweise die bessere Wahl für Arbeiten wie die von Mamba.
Aber unabhängig davon, ob Mamba letztendlich vom ICLR akzeptiert wird, ist es zu einem einflussreichen Werk geworden und hat der Community auch Hoffnung gegeben, die Fesseln von Transformer zu durchbrechen und Hoffnung in die Erforschung jenseits des Traditionellen zu bringen Transformatormodell. Neue Energie.
Das obige ist der detaillierte Inhalt vonWarum hat das ICLR Mambas Papier nicht akzeptiert? Die KI-Community hat eine große Diskussion entfacht. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!