Heim Technologie-Peripheriegeräte KI DeepMind: Wer hat gesagt, dass Faltungsnetzwerke ViT unterlegen sind?

DeepMind: Wer hat gesagt, dass Faltungsnetzwerke ViT unterlegen sind?

Nov 02, 2023 am 09:13 AM
deepmind 工程 convnets

Dieses Papier bewertet vergrößerte NFNets und stellt die Idee in Frage, dass ConvNets bei großen Problemen schlechter abschneiden als ViTs.

Der frühe Erfolg von Deep Learning kann auf die Verwendung von Faltungs-Neuronalen Netzen (ConvNets) zurückgeführt werden. entwickeln. ConvNets dominieren seit fast einem Jahrzehnt die Benchmarks für Computer Vision. In den letzten Jahren wurden sie jedoch zunehmend durch ViTs (Vision Transformers) ersetzt.

Viele Menschen glauben, dass ConvNets bei kleinen oder mittelgroßen Datensätzen eine gute Leistung erbringen, bei größeren Datensätzen in Netzwerkgröße jedoch nicht mit ViTs konkurrieren können.

Mittlerweile ist die CV-Community von der Bewertung der Leistung zufällig initialisierter Netzwerke für bestimmte Datensätze (wie ImageNet) zur Bewertung der Leistung von Netzwerken übergegangen, die für große allgemeine Datensätze aus dem Netzwerk vorab trainiert wurden. Dies führt zu einer wichtigen Frage: Übertreffen Vision Transformers vorab trainierte ConvNets-Architekturen bei ähnlichen Rechenbudgets?

In diesem Artikel untersuchen Forscher von Google DeepMind dieses Problem. Durch das Vortraining mehrerer NFNet-Modelle auf dem JFT-4B-Datensatz unterschiedlicher Maßstäbe erzielten sie eine ähnliche Leistung wie ViTs auf ImageNet Die Forschung in diesem Artikel diskutiert das Rechenbudget vor dem Training zwischen 0,4.000 und 110.000 TPU-v4-Kernrechenstunden und nutzt die Erhöhung der Tiefe und Breite der NFNet-Modellfamilie, um eine Reihe von Netzwerkschulungen durchzuführen. Untersuchungen haben ergeben, dass es ein Log-Log-Skalierungsgesetz zwischen dem ausgehaltenen Verlust und dem Rechenbudget gibt. Dieser Artikel basiert beispielsweise auf JFT-4B, wobei die TPU-v4-Kernstunde (Kernstunde) bei 0,4 k liegt auf 110.000 erweitert und NFNet ist vorab trainiert. Nach der Feinabstimmung erreichte das größte Modell eine Genauigkeit von 90,4 % auf ImageNet Top-1 und konkurrierte mit dem vorab trainierten ViT-Modell bei gleichem Rechenbudget. Man kann sagen, dass dieses Papier durch die Bewertung vergrößerter NFNets, Die Ansicht wird in Frage gestellt, dass ConvNets bei großen Datensätzen schlechter abschneiden als ViTs. Darüber hinaus bleiben ConvNets bei ausreichenden Daten und Berechnungen wettbewerbsfähig und Modelldesign und Ressourcen sind wichtiger als Architektur.

Nachdem Turing-Preisträger Yann LeCun diese Forschung gesehen hatte, sagte er: „Bei einem bestimmten Rechenaufwand sind ViT und ConvNets rechentechnisch gleichwertig. Obwohl ViTs beeindruckende Erfolge im Bereich Computer Vision erzielt haben, gibt es meiner Meinung nach keine eindeutigen Beweise dafür.“ „Vorab trainiertes ViT ist bei fairer Bewertung besser als vorab trainiertes ConvNet.“ Einige Internetnutzer kommentierten jedoch, dass die Verwendung von ViT in Modalmodellen ihm in vielen Fällen immer noch einen Vorteil in der Forschung verschaffen könnte Google DeepMind sagt, dass ConvNets niemals verschwinden werdenDeepMind: Wer hat gesagt, dass Faltungsnetzwerke ViT unterlegen sind?

Werfen wir einen Blick auf den spezifischen Inhalt des Papiers.

Vorab trainierte NFNets folgen dem Skalierungsgesetz
DeepMind: Wer hat gesagt, dass Faltungsnetzwerke ViT unterlegen sind?
Dieser Artikel trainierte eine Reihe von NFNet-Modellen mit unterschiedlichen Tiefen und Breiten auf JFT-4B.

Wie in Abbildung 2 dargestellt, hängt der Validierungsverlust linear mit dem Rechenbudget des trainierten Modells zusammen, was mit dem Log-Log-Erweiterungsgesetz übereinstimmt, das bei der Verwendung von Transformer für die Sprachmodellierung beobachtet wird. Mit zunehmendem Rechenbudget steigen auch die optimale Modellgröße und das optimale Epochenbudget (um den geringsten Validierungsverlust zu erzielen)

DeepMind: Wer hat gesagt, dass Faltungsnetzwerke ViT unterlegen sind?
In der folgenden Tabelle sehen wir drei Modelle über eine Reihe von Epochenbudgets hinweg. Die beste beobachtete Lernrate ( d. h. eine, die den Validierungsverlust minimiert). Die Forscher fanden heraus, dass die NFNet-Modellfamilie für niedrigere Epochenbudgets alle ähnliche optimale Lernraten aufwies, etwa 1,6. Die optimale Lernrate nimmt jedoch mit zunehmendem Epochenbudget ab und nimmt bei größeren Modellen schneller ab. Die Forscher gaben an, dass man davon ausgehen kann, dass die optimale Lernrate mit zunehmender Modellgröße und Epochenbudget langsam und monoton abnimmt, sodass die Lernrate zwischen den Versuchen effektiv angepasst werden kann

DeepMind: Wer hat gesagt, dass Faltungsnetzwerke ViT unterlegen sind?

Was neu geschrieben werden muss, ist: Es ist zu beachten, dass einige der vorab trainierten Modelle in Abbildung 2 nicht die erwartete Leistung erbrachten. Das Forschungsteam geht davon aus, dass der Grund für diese Situation darin liegt, dass bei einem vorzeitigen/neuen Start des Trainingslaufs der Datenladeprozess nicht garantieren kann, dass jede Trainingsprobe in jeder Epoche einmal abgetastet werden kann. Wenn der Trainingslauf mehrmals neu gestartet wird, kann dies dazu führen, dass einige Trainingsbeispiele zu wenig abgetastet werden. optimierte das NFNet vor dem Training auf ImageNet und zeichnete die Beziehung zwischen der Berechnung vor dem Training und dem Top-1-Fehler auf, wie in Abbildung 1 oben dargestellt.

Die Genauigkeit von ImageNet Top-1 verbessert sich mit zunehmendem Budget weiter. Unter diesen ist NFNet-F7+ das teuerste vorab trainierte Modell, das für 8 Epochen vorab trainiert ist und in ImageNet Top-1 eine Genauigkeit von 90,3 % aufweist. Für das Vortraining und die Feinabstimmung sind etwa 110.000 TPU-v4-Kernstunden und 1,6.000 TPU-v4-Kernstunden erforderlich. Wenn darüber hinaus bei der Feinabstimmung zusätzliche repetitive Verbesserungstechniken eingeführt werden, kann eine Top-1-Genauigkeit von 90,4 % erreicht werden. NFNet profitiert stark vom groß angelegten Vortraining Obwohl es offensichtliche Unterschiede zwischen den beiden Modellarchitekturen NFNet und ViT gibt, ist die Leistung von vorab trainiertem NFNet und vorab trainiertem ViT vergleichbar. Beispielsweise erreichte ViT-g/14 nach dem Vortraining von JFT-3B mit 210.000 TPU-v3-Kernstunden eine Top-1-Genauigkeit von 90,2 % bei einer Leistung von mehr als 500.000 TPU-v3 auf JFT-3B nach Kernstunden Vor dem Training erreichte ViT-G/14 eine Top-1-Genauigkeit von 90,45 %

Dieser Artikel bewertet die Geschwindigkeit dieser Modelle vor dem Training auf TPU-v4 und schätzt, dass ViT-g/14 120.000 TPU-v4-Kerne erfordert Stunden für das Vortraining, während ViTG/14 280.000 TPU-v4-Kernstunden und SoViT-400m/14 130.000 TPU-v4-Kernstunden erfordert. In diesem Artikel werden diese Schätzungen verwendet, um die Vortrainingseffizienz von ViT und NFNet in Abbildung 1 zu vergleichen. In der Studie wurde festgestellt, dass NFNet für TPU-v4 optimiert ist und bei der Auswertung auf anderen Geräten eine schlechte Leistung erbringt.

Abschließend wird in diesem Artikel darauf hingewiesen, dass vorab trainierte Prüfpunkte den geringsten Validierungsverlust auf JFT-4B erzielen, nach der Feinabstimmung jedoch nicht immer die höchste Top-1-Genauigkeit auf ImageNet erreichen. In diesem Artikel wird insbesondere festgestellt, dass der Feinabstimmungsmechanismus bei einem festen Rechenbudget vor dem Training dazu tendiert, ein etwas größeres Modell und ein etwas kleineres Epochenbudget auszuwählen. Intuitiv haben größere Modelle eine größere Kapazität und können sich daher besser an neue Aufgaben anpassen. In manchen Fällen kann auch eine etwas größere Lernrate (während des Vortrainings) nach der Feinabstimmung zu einer besseren Leistung führen

Das obige ist der detaillierte Inhalt vonDeepMind: Wer hat gesagt, dass Faltungsnetzwerke ViT unterlegen sind?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

See all articles