


ICML 2024 |. Gradient Checkpointing zu langsam? Ohne den Videospeicher zu verlangsamen und zu sparen, verbessert LowMemoryBP die Effizienz des Backpropagation-Videospeichers erheblich

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com
Der Erstautor dieses Artikels ist Yang Yuchen, ein Masterstudent im zweiten Jahr an der School of Statistics and Data Science der Nankai University, und sein Berater ist außerordentlicher Professor Xu Jun an der Fakultät für Statistik und Datenwissenschaft der Nankai-Universität. Der Forschungsschwerpunkt des Teams von Professor
Da große Transformer-Modelle in verschiedenen Bereichen nach und nach zu einer einheitlichen Architektur geworden sind, ist die Feinabstimmung zu einem wichtigen Mittel geworden, um vorab trainierte große Modelle auf nachgelagerte Aufgaben anzuwenden. Da jedoch die Größe des Modells von Tag zu Tag zunimmt, nimmt auch der für die Feinabstimmung erforderliche Videospeicher allmählich zu. Die effiziente Reduzierung des Feinabstimmungs-Videospeichers ist zu einem wichtigen Thema geworden. Bisher bestand der übliche Ansatz bei der Feinabstimmung des Transformer-Modells zur Einsparung von Grafikspeicher-Overhead darin, Gradienten-Checkpointing (auch Aktivierungsneuberechnung genannt) zu verwenden, um die für den Backpropagation-Prozess (BP) erforderliche Zeit auf Kosten der Trainingsgeschwindigkeit zu reduzieren . Aktivieren Sie die Videospeichernutzung.
Kürzlich wurde in dem auf der ICML 2024 vom Team von Lehrer BP)-Prozess, ohne den Rechenaufwand zu erhöhen, wird die Spitzenauslastung des Aktivierungsspeichers erheblich reduziert.
Papier: Reduzierung des Feinabstimmungs-Speicheraufwands durch Approximate und Memory-Sharing Backpropagation
Papierlink: https://arxiv.org/abs/2406.16282
Projektlink: https:/ / /github.com/yyyyychen/LowMemoryBP
Der Artikel schlägt zwei Strategien zur Verbesserung der Backpropagation vor, nämlich Approximate Backpropagation (Approx-BP) und Memory-Sharing Backpropagation (MS-BP). Approx-BP und MS-BP stellen jeweils zwei Lösungen zur Verbesserung der Speichereffizienz bei der Backpropagation dar, die zusammen als LowMemoryBP bezeichnet werden können. Ob im theoretischen oder praktischen Sinne, der Artikel bietet bahnbrechende Anleitungen für ein effizienteres Backpropagation-Training.
In der theoretischen Speicheranalyse kann LowMemoryBP die Aktivierungsspeichernutzung durch Aktivierungsfunktionen und Normalisierungsschichten erheblich reduzieren. Am Beispiel von ViT und LLaMA kann die Feinabstimmung von ViT den Aktivierungsspeicher um 39,47 % reduzieren, und die Feinabstimmung von LLaMA kann die Aktivierung um reduzieren 29,19 % Videospeicher.
In tatsächlichen Experimenten kann LowMemoryBP die Spitzenspeichernutzung der Feinabstimmung des Transformer-Modells, einschließlich ViT, LLaMA, RoBERTa, BERT und Swin, effektiv um 20 % bis 30 % reduzieren und erhöht nicht den Trainingsdurchsatz und -verlust der Testgenauigkeit.
Approx-BP
Beim herkömmlichen Backpropagation-Training entspricht die Backpropagation des Gradienten der Aktivierungsfunktion genau ihrer Ableitungsfunktion. Für die im Transformer-Modell üblicherweise verwendeten GELU- und SiLU-Funktionen bedeutet dies, dass die Eingabe erforderlich ist Der Feature-Tensor wird vollständig im aktiven Videospeicher gespeichert. Der Autor dieses Artikels schlug eine Reihe von Backpropagation-Approximationstheorien vor, nämlich die Approx-BP-Theorie. Basierend auf dieser Theorie verwendet der Autor eine stückweise lineare Funktion, um die Aktivierungsfunktion anzunähern, und ersetzt die Rückausbreitung des GELU/SiLU-Gradienten durch die Ableitung der stückweisen linearen Funktion (Schrittfunktion). Dieser Ansatz führt zu zwei asymmetrischen speichereffizienten Aktivierungsfunktionen: ReGELU2 und ReSiLU2. Diese Art von Aktivierungsfunktion verwendet eine 4-stufige Schrittfunktion für die Rücksendung, sodass der Aktivierungsspeicher nur einen 2-Bit-Datentyp verwenden muss.
MS-BP
BP Jede Schicht des Netzwerks speichert normalerweise den Eingabetensor im Aktivierungsspeicher für die Backpropagation-Berechnung. Der Autor weist darauf hin, dass, wenn die Backpropagation einer bestimmten Schicht in eine ausgabeabhängige Form umgeschrieben werden kann, diese Schicht und die nachfolgende Schicht denselben Aktivierungstensor teilen können, wodurch die Redundanz des Aktivierungsspeichers verringert wird.
Der Artikel weist darauf hin, dass LayerNorm und RMSNorm, die üblicherweise in Transformer-Modellen verwendet werden, die Anforderungen der MS-BP-Strategie gut erfüllen können, nachdem affine Parameter in der linearen Schicht der letzteren Schicht zusammengeführt wurden. Die neu gestalteten MS-LayerNorm und MS-RMSNorm generieren keinen unabhängigen aktiven Grafikspeicher mehr.
Experimentelle Ergebnisse
Der Autor führte Feinabstimmungsexperimente an mehreren repräsentativen Modellen in den Bereichen Computer Vision und Verarbeitung natürlicher Sprache durch. Unter anderem reduzierte die im Artikel vorgeschlagene Methode in den Feinabstimmungsexperimenten von ViT, LLaMA und RoBERTa die Spitzenspeichernutzung um 27 %, 29 % bzw. 21 %, ohne dass es zu einem Verlust des Trainingseffekts und der Trainingsgeschwindigkeit kam. Beachten Sie, dass der Vergleich Mesa (eine 8-Bit-Aktivierungskomprimierungs-Trainingsmethode) die Trainingsgeschwindigkeit um etwa 20 % reduziert, während die im Artikel vorgeschlagene LowMemoryBP-Methode die Trainingsgeschwindigkeit vollständig beibehält.
Schlussfolgerung und Bedeutung
Die beiden im Artikel vorgeschlagenen Strategien zur Verbesserung des Blutdrucks, Approx-BP und MS-BP, erreichen beide die Aktivierung des Videogedächtnisses bei gleichzeitiger Aufrechterhaltung des Trainingseffekts und des Trainings Geschwindigkeit. Erhebliche Einsparungen. Dies bedeutet, dass die Optimierung nach dem BP-Prinzip eine vielversprechende Lösung zur Speichereinsparung ist. Darüber hinaus durchbricht die im Artikel vorgeschlagene Approx-BP-Theorie den Optimierungsrahmen traditioneller neuronaler Netze und bietet theoretische Machbarkeit für die Verwendung ungepaarter Ableitungen. Die abgeleiteten Modelle ReGELU2 und ReSiLU2 zeigen den wichtigen praktischen Wert dieses Ansatzes.
Sie können gerne das Papier oder den Code lesen, um die Details des Algorithmus zu verstehen. Die relevanten Module wurden im Github-Repository des LowMemoryBP-Projekts offengelegt.
Das obige ist der detaillierte Inhalt vonICML 2024 |. Gradient Checkpointing zu langsam? Ohne den Videospeicher zu verlangsamen und zu sparen, verbessert LowMemoryBP die Effizienz des Backpropagation-Videospeichers erheblich. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das
