Inhaltsverzeichnis
Ist die Waage alles, was Sie brauchen?
Benchmarking überwachter Bereinigungsmetriken auf ImageNet
Selbstüberwachte Datenbereinigung über Prototyp-Metriken
Heim Technologie-Peripheriegeräte KI Stanford, Meta AI Research: Auf dem Weg zu AGI ist die Datenbereinigung wichtiger als wir denken

Stanford, Meta AI Research: Auf dem Weg zu AGI ist die Datenbereinigung wichtiger als wir denken

Apr 17, 2023 pm 07:04 PM
ai 数据

In vielen Bereichen des maschinellen Lernens, einschließlich Sehen, Sprache und Sprache, besagt das neuronale Skalierungsgesetz, dass Testfehler im Allgemeinen mit den Trainingsdaten, der Modellgröße oder der Anzahl der Berechnungen abnehmen. Diese proportionale Verbesserung hat dazu geführt, dass Deep Learning erhebliche Leistungssteigerungen erzielen konnte. Allerdings sind diese allein durch Skalierung erzielten Verbesserungen mit erheblichen Rechen- und Energiekosten verbunden.

Diese proportionale Skalierung ist nicht nachhaltig. Um beispielsweise den Fehler von 3 % auf 2 % zu senken, sind exponentiell mehr Daten, Berechnungen oder Energie erforderlich. Einige frühere Untersuchungen haben gezeigt, dass die Reduzierung des Kreuzentropieverlusts von 3,4 auf 2,8 bei der Sprachmodellierung mit großen Transformern zehnmal mehr Trainingsdaten erfordert. Darüber hinaus führten bei großen visuellen Transformern zusätzliche 2 Milliarden vorab trainierte Datenpunkte (ausgehend von 1 Milliarde) nur zu einem Genauigkeitsgewinn von einigen Prozentpunkten auf ImageNet.

All diese Ergebnisse geben Aufschluss über die Natur der Daten beim Deep Learning und zeigen gleichzeitig, dass das Sammeln großer Datensätze ineffizient sein kann. Die Diskussion hier ist, ob wir es besser machen können. Können wir beispielsweise mit einer guten Strategie zur Auswahl von Trainingsbeispielen eine exponentielle Skalierung erreichen?

In einem kürzlich erschienenen Artikel fanden Forscher heraus, dass das Hinzufügen nur einiger sorgfältig ausgewählter Trainingsstichproben den Fehler von 3 % auf 2 % reduzieren kann, ohne dass zehnmal mehr Zufallsstichproben gesammelt werden müssen. Kurz gesagt: „Verkauf ist nicht alles, was Sie brauchen“.

Stanford, Meta AI Research: Auf dem Weg zu AGI ist die Datenbereinigung wichtiger als wir denken

Papierlink: https://arxiv.org/pdf/2206.14486.pdf

Im Allgemeinen sind die Beiträge dieser Forschung:

1. Mithilfe der statistischen Mechanik wurde eine neue Datenbereinigungsmethode entwickelt In der Zweiganalysetheorie werden in der Lehrer-Schüler-Perzeptron-Lernumgebung Proben entsprechend ihrer Lehrergrenzen beschnitten, und die großen (kleinen) Ränder entsprechen jeweils einfachen (schwierigen) Proben. Die Theorie stimmt quantitativ mit numerischen Experimenten überein und offenbart zwei überraschende Vorhersagen:

a Die optimale Bereinigungsstrategie ändert sich mit der Menge der Anfangsdaten; wenn die Anfangsdaten reichlich vorhanden (knapp) sind, sollten nur schwierige (einfache) Stichproben beibehalten werden.

b. Wenn ein zunehmender Pareto-optimaler Bereinigungswert als Funktion der anfänglichen Datensatzgröße gewählt wird, ist eine exponentielle Skalierung für die beschnittene Datensatzgröße möglich.

Stanford, Meta AI Research: Auf dem Weg zu AGI ist die Datenbereinigung wichtiger als wir denken

2. Untersuchungen zeigen, dass diese beiden Vorhersagen in der Praxis in allgemeineren Situationen zutreffen. Sie validieren die Eigenschaften der exponentiellen Fehlerskalierung in Bezug auf die Größe des beschnittenen Datensatzes für ResNets, die von Grund auf auf SVHN, CIFAR-10 und ImageNet trainiert wurden, und für einen auf CIFAR-10 fein abgestimmten visuellen Transformer.

3. Führte eine groß angelegte Benchmark-Studie zu 10 verschiedenen Datenbereinigungsmetriken auf ImageNet durch und stellte fest, dass die meisten Metriken mit Ausnahme der rechenintensivsten eine schlechte Leistung erbrachten.

4. Mithilfe von selbstüberwachtem Lernen wird eine neue kostengünstige unbeaufsichtigte Bereinigungsmetrik entwickelt, die im Gegensatz zu früheren Metriken keine Etiketten erfordert. Wir zeigen, dass diese unbeaufsichtigte Maßnahme mit den besten überwachten Beschneidungsmaßnahmen vergleichbar ist, die Etiketten und mehr Berechnungen erfordern. Dieses Ergebnis zeigt die Möglichkeit, ein vorab trainiertes Basismodell zum Bereinigen neuer Datensätze zu verwenden.

Ist die Waage alles, was Sie brauchen?

Die Perzeptron-Datenbereinigungstheorie des Forschers schlägt drei überraschende Vorhersagen vor, die in einer allgemeineren Umgebung getestet werden können, beispielsweise in anhand von Benchmarks trainierten tiefen neuronalen Netzen:

(1) Relativ zur zufälligen Datenbereinigung, wenn der anfängliche Datensatz relativ ist Wenn der anfängliche Datensatz jedoch relativ klein ist, ist dies schädlich Der feste Anteil der Stichproben f sollte eine Potenzgesetz-Skalierung mit einem Exponenten erzeugen, der der zufälligen Beschneidung entspricht Am Datensatz wird eine aggressive Bereinigung durchgeführt, um eine Pareto-optimale untere Hüllkurve zu verfolgen, wodurch die Potenzgesetz-Skalierungsfunktionsbeziehung zwischen Testfehler und Größe des beschnittenen Datensatzes unterbrochen wird.

Die Forscher verwendeten unterschiedliche Anzahlen von anfänglichen Datensatzgrößen und Datenfraktionen, die unter Datenbereinigung gespeichert wurden (Theorie in Abbildung 3A vs. das Deep-Learning-Experiment in Abbildung 3BCD), und das Training auf SVHN, CIFAR-10 und ImageNet ResNets verifizierte dies oben drei Vorhersagen. In jeder Versuchsumgebung lässt sich erkennen, dass eine größere anfängliche Datensatzgröße und eine aggressivere Bereinigung eine bessere Leistung erbringen als die Potenzgesetz-Skalierung. Darüber hinaus kann ein größerer Anfangsdatensatz möglicherweise eine bessere Skalierung erzielen (Abbildung 3A).

Darüber hinaus fanden Forscher heraus, dass die Datenbereinigung die Leistung des Transferlernens verbessern kann. Sie analysierten zunächst das auf ImageNet21K vorab trainierte ViT und führten dann eine Feinabstimmung auf verschiedene beschnittene Teilmengen von CIFAR-10 durch. Interessanterweise ermöglichte das vorab trainierte Modell eine aggressivere Datenbereinigung; nur 10 % der CIFAR-10-Feinabstimmung erreichten oder übertrafen die Leistung aller CIFAR-10-Feinabstimmungen (Abbildung 4A). Darüber hinaus zeigt Abbildung 4A ein Beispiel für die Brechung der Potenzgesetzsskalierung in einer fein abgestimmten Umgebung.

Stanford, Meta AI Research: Auf dem Weg zu AGI ist die Datenbereinigung wichtiger als wir denken

Wir haben die Wirksamkeit der Bereinigung der vorab trainierten Daten untersucht, indem wir ResNet50 auf verschiedenen bereinigten Teilmengen von ImageNet1K (dargestellt in Abbildung 3D) vorab trainiert haben und sie dann auf CIFAR-10 optimiert haben. Wie in Abbildung 4B dargestellt, kann ein Vortraining auf mindestens 50 % von ImageNet die CIFAR-10-Leistung erreichen oder übertreffen, die durch Vortraining auf allen ImageNet erreicht wird.

Daher kann die Bereinigung der Pre-Training-Daten von Upstream-Aufgaben dennoch eine hohe Leistung bei verschiedenen Downstream-Aufgaben aufrechterhalten. Insgesamt zeigen diese Ergebnisse, dass eine Reduzierung des Transferlernens während der Vortrainings- und Feinabstimmungsphase vielversprechend ist.

Benchmarking überwachter Bereinigungsmetriken auf ImageNet

Die Forscher stellten fest, dass die meisten Datenbereinigungsexperimente an kleinen Datensätzen (d. h. Varianten von MNIST und CIFAR) durchgeführt wurden. Daher werden die wenigen für ImageNet vorgeschlagenen Bereinigungsmetriken selten mit Basislinien verglichen, die auf kleineren Datensätzen basieren.

Daher ist unklar, wie sich die meisten Beschneidungsmethoden auf ImageNet skalieren lassen und welche Methode die beste ist. Um den theoretischen Einfluss der Qualität der Pruning-Metriken auf die Leistung zu untersuchen, haben wir beschlossen, diese Wissenslücke zu schließen, indem wir eine systematische Bewertung von 8 verschiedenen überwachten Pruning-Metriken auf ImageNet durchführen.

Stanford, Meta AI Research: Auf dem Weg zu AGI ist die Datenbereinigung wichtiger als wir denken

Sie beobachteten erhebliche Leistungsunterschiede zwischen den Metriken: Abbildung 5BC zeigt die Testleistung, wenn ein Teil der härtesten Proben unter jeder Metrik im Trainingssatz beibehalten wurde. Viele Metriken sind bei kleineren Datensätzen erfolgreich, aber wenn man eine deutlich kleinere Trainingsteilmenge wählt (z. B. 80 % von Imagenet), erzielen nur wenige noch eine vergleichbare Leistung, wenn sie auf dem gesamten Datensatz trainiert werden.

Dennoch übertreffen die meisten Maßnahmen immer noch das zufällige Beschneiden (Abbildung 5C). Forscher fanden heraus, dass alle Bereinigungsmetriken das Klassenungleichgewicht verstärken, was zu Leistungseinbußen führt. Um dieses Problem anzugehen, verwendeten die Autoren in allen ImageNet-Experimenten eine einfache Klassenausgleichsrate von 50 %.

Selbstüberwachte Datenbereinigung über Prototyp-Metriken

Wie in Abbildung 5 dargestellt, lassen sich viele Datenbereinigungsmetriken nicht gut auf ImageNet skalieren, und einige von ihnen sind tatsächlich rechenintensiv. Darüber hinaus erfordern alle diese Metriken Anmerkungen, was ihre Datenbereinigungsmöglichkeiten für das Training umfangreicher Basismodelle auf riesigen, unbeschrifteten Datensätzen einschränkt. Daher benötigen wir eindeutig einfache, skalierbare und selbstüberwachte Bereinigungsmetriken.

Stanford, Meta AI Research: Auf dem Weg zu AGI ist die Datenbereinigung wichtiger als wir denken

Um zu bewerten, ob die von der Metrik entdeckten Cluster mit ImageNet-Klassen konsistent sind, haben wir ihre Überlappung in Abbildung 6A verglichen. Die Leistung von selbstüberwachten und überwachten Maßnahmen ist ähnlich, wenn mehr als 70 % der Daten beibehalten werden, was zeigt, dass selbstüberwachtes Beschneiden vielversprechend ist.

Weitere Forschungsdetails finden Sie im Originalpapier.

Das obige ist der detaillierte Inhalt vonStanford, Meta AI Research: Auf dem Weg zu AGI ist die Datenbereinigung wichtiger als wir denken. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Welche Methode wird verwendet, um Strings in Objekte in Vue.js umzuwandeln? Welche Methode wird verwendet, um Strings in Objekte in Vue.js umzuwandeln? Apr 07, 2025 pm 09:39 PM

Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

So verwenden Sie MySQL nach der Installation So verwenden Sie MySQL nach der Installation Apr 08, 2025 am 11:48 AM

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Wie man MySQL löst, kann nicht gestartet werden Wie man MySQL löst, kann nicht gestartet werden Apr 08, 2025 pm 02:21 PM

Es gibt viele Gründe, warum MySQL Startup fehlschlägt und durch Überprüfung des Fehlerprotokolls diagnostiziert werden kann. Zu den allgemeinen Ursachen gehören Portkonflikte (prüfen Portbelegung und Änderung der Konfiguration), Berechtigungsprobleme (Überprüfen Sie den Dienst Ausführen von Benutzerberechtigungen), Konfigurationsdateifehler (Überprüfung der Parametereinstellungen), Datenverzeichniskorruption (Wiederherstellung von Daten oder Wiederaufbautabellenraum), InnoDB-Tabellenraumprobleme (prüfen IBDATA1-Dateien), Plug-in-Ladeversagen (Überprüfen Sie Fehlerprotokolle). Wenn Sie Probleme lösen, sollten Sie sie anhand des Fehlerprotokolls analysieren, die Hauptursache des Problems finden und die Gewohnheit entwickeln, Daten regelmäßig zu unterstützen, um Probleme zu verhindern und zu lösen.

Laravels Geospatial: Optimierung interaktiver Karten und großen Datenmengen Laravels Geospatial: Optimierung interaktiver Karten und großen Datenmengen Apr 08, 2025 pm 12:24 PM

Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

So stellen Sie die Zeitüberschreitung von Vue Axios fest So stellen Sie die Zeitüberschreitung von Vue Axios fest Apr 07, 2025 pm 10:03 PM

Um die Zeitüberschreitung für Vue Axios festzulegen, können wir eine Axios -Instanz erstellen und die Zeitleitungsoption angeben: in globalen Einstellungen: vue.Prototyp. $ Axios = axios.create ({Timeout: 5000}); In einer einzigen Anfrage: this. $ axios.get ('/api/user', {timeout: 10000}).

So optimieren Sie die Datenbankleistung nach der MySQL -Installation So optimieren Sie die Datenbankleistung nach der MySQL -Installation Apr 08, 2025 am 11:36 AM

Die MySQL -Leistungsoptimierung muss von drei Aspekten beginnen: Installationskonfiguration, Indexierung und Abfrageoptimierung, Überwachung und Abstimmung. 1. Nach der Installation müssen Sie die my.cnf -Datei entsprechend der Serverkonfiguration anpassen, z. 2. Erstellen Sie einen geeigneten Index, um übermäßige Indizes zu vermeiden und Abfrageanweisungen zu optimieren, z. B. den Befehl Erklärung zur Analyse des Ausführungsplans; 3. Verwenden Sie das eigene Überwachungstool von MySQL (ShowProcessList, Showstatus), um die Datenbankgesundheit zu überwachen und die Datenbank regelmäßig zu sichern und zu organisieren. Nur durch kontinuierliche Optimierung dieser Schritte kann die Leistung der MySQL -Datenbank verbessert werden.

VUE.JS Wie kann man ein Array von String -Typ in ein Array von Objekten umwandeln? VUE.JS Wie kann man ein Array von String -Typ in ein Array von Objekten umwandeln? Apr 07, 2025 pm 09:36 PM

Zusammenfassung: Es gibt die folgenden Methoden zum Umwandeln von VUE.JS -String -Arrays in Objektarrays: Grundlegende Methode: Verwenden Sie die Kartenfunktion, um regelmäßige formatierte Daten zu entsprechen. Erweitertes Gameplay: Die Verwendung regulärer Ausdrücke kann komplexe Formate ausführen, müssen jedoch sorgfältig geschrieben und berücksichtigt werden. Leistungsoptimierung: In Betracht ziehen die große Datenmenge, asynchrone Operationen oder effiziente Datenverarbeitungsbibliotheken können verwendet werden. Best Practice: Clear Code -Stil, verwenden Sie sinnvolle variable Namen und Kommentare, um den Code präzise zu halten.

Remote Senior Backend Engineers (Plattformen) benötigen Kreise Remote Senior Backend Engineers (Plattformen) benötigen Kreise Apr 08, 2025 pm 12:27 PM

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen

See all articles