Die Domänenanpassung ist eine wichtige Methode zur Lösung des Transferlernens. Aktuelle Domänenanpassungsmethoden basieren für das synchrone Training auf Originaldomänen- und Zieldomänendaten. Wenn die Quelldomänendaten nicht verfügbar sind und die Zieldomänendaten nicht vollständig sichtbar sind, wird das Testzeittraining zu einer neuen Domänenanpassungsmethode. In der aktuellen Forschung zum Testzeittraining (Test-Time Training, TTT) werden häufig selbstüberwachtes Lernen, kontrastives Lernen, Selbsttraining und andere Methoden eingesetzt. Die Definition von TTT in realen Umgebungen wird jedoch häufig ignoriert, was zu einer mangelnden Vergleichbarkeit zwischen verschiedenen Methoden führt.
Kürzlich haben die South China University of Technology, das A*STAR-Team und das Pengcheng-Labor gemeinsam ein systematisches Klassifizierungskriterium für TTT-Probleme vorgeschlagen, indem unterschieden wird, ob die Methode über sequentielle Inferenzfähigkeiten (Sequential Inference) verfügt und ob das Quelldomänen-Trainingsziel ist muss geändert werden, bietet eine detaillierte Klassifizierung der aktuellen Methoden. Gleichzeitig wird eine Methode vorgeschlagen, die auf der verankerten Clusterung von Zieldomänendaten basiert und die höchste Klassifizierungsgenauigkeit unter verschiedenen TTT-Klassifizierungen erreicht. Dieser Artikel zeigt die richtige Richtung für die nachfolgende Forschung zu TTT auf und vermeidet Verwirrung in experimentellen Umgebungen sind nicht vergleichbar. Die Forschungsarbeit wurde für NeurIPS 2022 angenommen.
Der Autor bemerkte, dass in der Community Verwirrung über die Definition von TTT herrscht, was zu unfairen Vergleichen führt. Das Papier klassifiziert bestehende TTT-Methoden basierend auf zwei Schlüsselfaktoren:
Für Daten, die in einem Streaming-Verfahren angezeigt werden und zeitnahe Vorhersagen zu den aktuell angezeigten Daten treffen müssen, wird es als Ein-Runden-Anpassungsprotokoll (One-Pass) bezeichnet Anpassung); für andere Protokolle, die die oben genannten Einstellungen nicht erfüllen, sogenannte Multi-Pass-Anpassung, muss das Modell möglicherweise für mehrere Runden des gesamten Testsatzes aktualisiert werden, bevor von Anfang bis Ende Inferenzvorhersagen getroffen werden können.
Zusätzlich zur oben genannten Klassifizierung verschiedener TTT-Methoden schlägt das Papier auch zwei Technologien vor, um sTTT effektiver und genauer zu machen:
Das Papier ist in vier Teile unterteilt, um die vorgeschlagene Methode zu erläutern. Diese sind 1) Einführung des verankerten Clustering-Moduls des Testzeittrainings (TTT), wie im Teil „Ankered Clustering“ gezeigt Abbildung 1; 2) Stellen Sie einige Strategien zum Filtern von Pseudo-Labels vor, wie z. B. den Pseudo-Label-Filter-Teil in Abbildung 1. 3) Anders als bei der Verwendung des L2-Abstands zur Messung des Abstands zwischen zwei Verteilungen in TTT++ [2] verwendet der Autor die KL-Divergenz Messen Sie den Abstand zwischen zwei Verteilungen. 4) Führen Sie eine effektive iterative Methode zur Aktualisierung der Merkmalsstatistiken im Testzeittrainingsprozess ein. Schließlich gibt der fünfte Abschnitt den Prozesscode des gesamten Algorithmus an.
Teil 1 Beim verankerten Clustering verwendet der Autor zunächst eine Mischung aus Gaußschen Funktionen, um die Merkmale der Zieldomäne zu modellieren, wobei jede Gaußsche Komponente einen entdeckten Cluster darstellt. Die Autoren verwenden dann die Verteilung jeder Kategorie in der Quelldomäne als Ankerpunkte für die Verteilung in der Zieldomäne für den Abgleich. Auf diese Weise können Testdatenmerkmale gleichzeitig Cluster bilden, und die Cluster werden Quelldomänenkategorien zugeordnet, wodurch eine Generalisierung auf die Zieldomäne erreicht wird. Zusammenfassend werden die Merkmale der Quelldomäne und der Zieldomäne entsprechend den Kategorieinformationen modelliert:
Dann wird der Abstand zwischen zwei gemischten Gaußschen Verteilungen durch KL-Divergenz gemessen und durch Reduzieren der KL-Divergenz-Anpassung erreicht von zwei Domänenmerkmalen. Es gibt jedoch keine geschlossene Lösung zur direkten Lösung der KL-Divergenz auf zwei gemischten Gaußschen Verteilungen, was die Verwendung effektiver Methoden zur Gradientenoptimierung unmöglich macht. In diesem Artikel weist der Autor die gleiche Anzahl von Clustern in den Quell- und Zieldomänen zu, und jeder Zieldomänencluster wird einem Quelldomänencluster zugewiesen, sodass die KL-Divergenzlösung des gesamten gemischten Gaußschen in jedes Paar umgewandelt werden kann Summe von KL-Divergenzen zwischen Gauß-Funktionen. Die Formel lautet wie folgt:
Die geschlossene Lösung der obigen Formel lautet:
In Formel 2 können die Parameter des Quelldomänenclusters offline erfasst werden, und zwar nur in geringem Umfang Bei Statistiken handelt es sich um verwendete Daten, sodass keine Datenschutzprobleme entstehen und nur ein geringer Rechen- und Speicheraufwand entsteht. Für Variablen in der Zieldomäne ist die Verwendung von Pseudo-Labels erforderlich. Zu diesem Zweck hat der Autor eine effektive und einfache Pseudo-Label-Filterstrategie entwickelt.
Der zweite Teil der Pseudo-Label-Filterstrategie ist hauptsächlich in zwei Teile unterteilt:
1) Filterung für konsistente Vorhersage in Zeitreihen:
2) Filterung basierend auf der Posterior-Wahrscheinlichkeit:
Verwenden Sie abschließend die gefilterten Stichproben, um die Statistiken des Zieldomänenclusters zu ermitteln:
Teil 3: Beim verankerten Clustering nehmen einige gefilterte Stichproben nicht an der Schätzung der Zieldomäne teil. Der Autor führt auch eine globale Merkmalsausrichtung für alle Testproben durch, ähnlich dem Ansatz für Cluster beim verankerten Clustering. Hier werden alle Proben als Gesamtcluster betrachtet, der in der Quelldomäne bzw. der Zieldomäne definiert ist ## 🎜🎜#
Dann richten Sie die globale Merkmalsverteilung erneut auf das Ziel aus, die KL-Divergenz zu minimieren:
#🎜 🎜#
Teil 4 und die oben genannten drei Teile stellen alle einige Domänenausrichtungsmethoden vor, aber im TTT-Prozess ist es nicht einfach, die Verteilung einer Zieldomäne abzuschätzen, da wir sie nicht beobachten können es. Daten für die gesamte Zieldomäne. In einer hochmodernen Arbeit verwendet TTT++ [2] eine Feature-Warteschlange, um vergangene Teilproben zu speichern und eine lokale Verteilung zu berechnen, um die Gesamtverteilung abzuschätzen. Dies führt jedoch nicht nur zu einem Speicheraufwand, sondern führt auch zu einem Kompromiss zwischen Genauigkeit und Speicher. In diesem Artikel schlägt der Autor eine iterative Aktualisierung der Statistiken vor, um den Speicheraufwand zu verringern. Die spezifische iterative Aktualisierungsformel lautet wie folgt:
Im Allgemeinen ist der gesamte Algorithmus wie in Algorithmus 1 unten dargestellt : # 🎜🎜#
3. Experimentelle Ergebnisse
Wie in der Einleitung erwähnt, der Autor von In diesem Artikel wird großer Wert auf einen fairen Vergleich verschiedener Methoden unter verschiedenen TTT-Strategien gelegt. Der Autor klassifiziert alle TTT-Methoden gemäß den folgenden zwei Schlüsselfaktoren: 1) ob ein One-Pass-Anpassungsprotokoll (One-Pass-Anpassung) und 2) die Trainingsverlustgleichung der Quelldomäne modifiziert wird, jeweils als Y/N aufgezeichnet, um anzuzeigen Die Quelldomänen-Trainingsgleichung muss geändert werden oder nicht. O/M steht für eine Einzelrundenanpassung oder Mehrrundenanpassung. Darüber hinaus führte der Autor ausreichende Vergleichsexperimente und einige weitere Analysen an 6 Benchmark-Datensätzen durch.
Wie in Tabelle 1 gezeigt, erscheint TTT++[2] sowohl unter N-O- als auch unter Y-O-Protokollen, da TTT++[2] über einen zusätzlichen selbstüberwachten Zweig verfügt, den wir nicht hinzufügen werden Der Verlust des selbstüberwachten Zweigs unter dem N-O-Protokoll, aber der Verlust dieses Moleküls kann unter dem Y-O-Protokoll normal genutzt werden. TTAC verwendet auch denselben selbstüberwachten Zweig wie TTT++[2] unter Y-O. Wie aus der Tabelle hervorgeht, hat TTAC unter allen TTT-Protokollen und allen Datensätzen sowohl bei CIFAR10-C- als auch bei CIFAR100-C-Datensätzen optimale Ergebnisse erzielt. TTAC hat eine Verbesserung von mehr als 3 % erzielt. Tabelle 2 – Tabelle 5 zeigt die Daten, mit denen ImageNet-C, CIFAR10.1 und VisDA die besten Ergebnisse erzielt haben.
# 🎜 🎜#
Darüber hinaus führte der Autor strenge Ablationsexperimente unter mehreren TTT-Protokollen gleichzeitig durch und erkannte klar die Rolle jeder Komponente, wie in Tabelle 6 gezeigt. Erstens ist aus dem Vergleich zwischen L2 Dist und KLD ersichtlich, dass die Verwendung der KL-Divergenz zur Messung der beiden Verteilungen einen besseren Effekt hat. Zweitens zeigt sich, dass bei alleiniger Verwendung von Anchored Clustering oder Pseudo-Label-Überwachung die Die Verbesserung beträgt nur 14 %, aber in Kombination mit Anchored Cluster und Pseudo Label Filter können Sie eine deutliche Leistungsverbesserung von 29,15 % -> 11,33 % feststellen. Dies zeigt auch die Notwendigkeit und effektive Kombination der einzelnen Komponenten.
Abschließend analysiert der Autor TTAC am Ende des Textes vollständig aus fünf Dimensionen, einschließlich der kumulativen Leistung unter sTTT (NO), der TSNE-Visualisierung von TTAC-Funktionen, der quelldomänenunabhängigen TTT-Analyse und der Analyse von Testbeispielen Warteschlangen und Aktualisierungsrunden, Rechenaufwand gemessen in Vollzeit. Weitere interessante Beweise und Analysen finden Sie im Anhang des Artikels.
Dieser Artikel stellt nur kurz die Beitragspunkte dieser Arbeit von TTAC vor: Klassifizierungsvergleich bestehender TTT-Methoden, vorgeschlagene Methoden und Experimente unter jeder TTT-Protokollklassifizierung. Eine ausführlichere Diskussion und Analyse finden Sie im Papier und im Anhang. Wir hoffen, dass diese Arbeit einen fairen Maßstab für TTT-Methoden liefern kann und dass zukünftige Studien innerhalb ihrer jeweiligen Protokolle verglichen werden sollten.
Das obige ist der detaillierte Inhalt vonWie definiere ich das Testphasentraining richtig? Sequentielle Inferenz und domänenadaptive Clustering-Methoden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!