Inhaltsverzeichnis
Hintergrund des Diffusionsmodells
Destillation des klassifikatorfreien geführten Diffusionsmodells
Experimente und Schlussfolgerungen" >Experimente und Schlussfolgerungen
Heim Technologie-Peripheriegeräte KI Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Apr 09, 2023 pm 06:51 PM
谷歌 模型

In letzter Zeit erwiesen sich klassifikatorfreie geführte Diffusionsmodelle als sehr effektiv bei der Erzeugung hochauflösender Bilder und wurden häufig in groß angelegten Diffusionsframeworks verwendet, darunter DALL-E 2. GLIDE und Imagen.

Ein Nachteil klassifikatorfreier geführter Diffusionsmodelle besteht jedoch darin, dass sie zum Zeitpunkt der Inferenz rechenintensiv sind. Denn sie erfordern die hunderte Evaluierung zweier Diffusionsmodelle – eines klassenbedingten Modells und eines unbedingten Modells.

Um dieses Problem zu lösen, schlugen Wissenschaftler der Stanford University und Google Brain vor, eine zweistufige Destillationsmethode zu verwenden, um das klassifikatorfreie geführte Diffusionsmodell zu verbessern Effizienz.

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Papieradresse: https://arxiv.org/abs/2210.03142

Wie verfeinert man das klassifikatorfreie geführte Diffusionsmodell zu einem schnellen Stichprobenmodell?

Zunächst lernten die Forscher für ein vorab trainiertes klassifikatorfreies Leitmodell zunächst ein einzelnes Modell, das mit der kombinierten Ausgabe des bedingten Modells und des unbedingten Modells übereinstimmt.

Die Forscher destillierten dieses Modell dann schrittweise zu einem Diffusionsmodell mit weniger Probenahmeschritten.

Es ist ersichtlich, dass diese Methode auf ImageNet 64x64 und CIFAR-10 Bilder erzeugen kann, die visuell mit dem Originalmodell vergleichbar sind.

Mit nur 4 Abtastschritten können mit dem Originalmodell vergleichbare FID/IS-Werte erzielt werden, während die Abtastgeschwindigkeit bis zu 256-mal beträgt.

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Es ist ersichtlich, dass durch Ändern des Führungsgewichts w das vom Forscher destillierte Modell die Probe verbessern kann Diversität und Qualitätskompromisse zwischen ihnen. Und mit nur einem Bemusterungsschritt werden optisch ansprechende Ergebnisse erzielt.

Hintergrund des Diffusionsmodells

Mit Stichproben x aus der DatenverteilungStanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!, die RauschplanungsfunktionStanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!Forscher minimieren die gewichtete Varianz Wird verwendet, um ein Diffusionsmodell Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! mit den Parametern θ zu trainieren.

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

wobei Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! das Signal-Rausch-Verhältnis ist, Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! und Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! sind vorgegebene Gewichtungsfunktionen.

Sobald das Diffusionsmodell trainiert wurde, können Sie mit dem zeitdiskreten DDIM-Sampler Proben aus dem Modell entnehmen. Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! Konkret beginnt der DDIM-Sampler bei z1 ∼ N (0,I) und wird wie folgt aktualisiert

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

wobei N die Gesamtzahl der Abtastschritte ist. Mit Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! wird die endgültige Probe generiert.

Klassifikatorfreie Anleitung ist eine effektive Methode, die die Probenqualität von Modellen mit bedingter Diffusion erheblich verbessern kann und wird häufig verwendet, einschließlich GLIDE, DALL·E 2 und Imagen.

Es führt einen LeitgewichtsparameterStanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! ein, um die Qualität und Vielfalt von Proben zu messen. Um Stichproben zu generieren, verwendet die klassifikatorfreie Führung Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! als Vorhersagemodell bei jedem Aktualisierungsschritt, um das bedingte Diffusionsmodell Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! und das gemeinsam trainierte Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! zu bewerten.

Die Probenahme unter Verwendung einer klassifikatorfreien Führung ist oft teuer, da jede Aktualisierung der Probenahme die Bewertung von zwei Diffusionsmodellen erfordert.

Um dieses Problem zu lösen, verwendeten die Forscher die progressive Destillation, eine Methode zur Erhöhung der Abtastgeschwindigkeit des Diffusionsmodells durch wiederholte Destillation.

Bisher konnte diese Methode weder direkt für die Destillation geführter Modelle verwendet werden, noch konnte sie auf anderen Samplern als deterministischen DDIM-Samplern verwendet werden. In diesem Artikel haben die Forscher diese Probleme gelöst.

Destillation des klassifikatorfreien geführten Diffusionsmodells

Ihre Methode besteht darin, das klassifikatorfreie geführte Diffusionsmodell zu destillieren.

Für ein ausgebildetes, von Lehrern geleitetes Modell Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! unternehmen sie zwei Schritte.

Im ersten Schritt führte der Forscher ein zeitkontinuierliches Schülermodell einStanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!, das über einen lernbaren Parameter η1 verfügt, der zu jedem Zeitpunkt Schritt t ∈ [0, 1] mit der Ausgabe des Lehrermodells übereinstimmt. Nachdem sie eine Reihe von Unterrichtsintensitäten Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! angegeben hatten, an denen sie interessiert waren, nutzten sie die folgenden Ziele, um das Schülermodell zu optimieren.

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Welche Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!.

Um das Führungsgewicht w zu kombinieren, führte der Forscher das w-Bedingungsmodell ein, wobei w als Eingabe des Studentenmodells dient. Um die Merkmale besser zu erfassen, wandten sie die Fourier-Einbettung w an und bauten sie dann mithilfe der von Kingma et al. verwendeten Zeitschrittmethode in das Rückgrat des Diffusionsmodells ein.

Da die Initialisierung eine Schlüsselrolle für die Leistung spielt, verwendeten die Forscher bei der Initialisierung des Schülermodells dieselben Parameter wie das Lehrerbedingungsmodell (mit Ausnahme der neu eingeführten Parameter im Zusammenhang mit der W-Konditionierung).

Im zweiten Schritt stellte sich der Forscher ein diskretes Zeitschrittszenario vor und halbierte jedes Mal die Anzahl der Probenahmeschritte und destillierte nach und nach Lernmodell vom ersten Schritt Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! in ein Lernmodell Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! mit lernbaren Parametern η2 und weniger Schritten.

wobei N die Anzahl der Abtastschritte darstellt, für Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! und Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!#🎜 🎜 #, der Forscher begann, das Schülermodell so zu trainieren, dass es einen Schritt verwendet, um mit der Ausgabe der zweistufigen DDIM-Stichprobe des Lehrermodells übereinzustimmen (zum Beispiel: von t/N bis t – 0,5/N, von t – 0,5). /N bis t - 1/ N).

Nachdem wir die 2N Schritte im Lehrermodell in N Schritte im Schülermodell destilliert haben, können wir das neue N-stufige Schülermodell als neues Lehrermodell verwenden, und Wiederholen Sie dann den gleichen Vorgang, um das Lehrermodell in ein N/2-stufiges Schülermodell zu destillieren. Bei jedem Schritt initialisieren die Forscher das chemische Modell mithilfe der Parameter des Lehrermodells. Nr Modell

ist trainiert, für

kann der Forscher die Regeln aktualisieren, um Stichproben über DDIM durchzuführen. Die Forscher stellten fest, dass dieser Probenahmeprozess für das Destillationsmodell

angesichts der Initialisierung

deterministisch ist. Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! Darüber hinaus können Forscher auch N-stufige Zufallsstichproben durchführen. Verwenden Sie einen deterministischen Abtastschritt, der doppelt so groß ist wie die ursprüngliche Schrittgröße (d. h. derselbe wie beim deterministischen N/2-Schritt-Sampler) und machen Sie dann einen zufälligen Schritt zurück (d. h. stören Sie ihn mit Rauschen), indem Sie die ursprüngliche Schrittgröße verwenden. Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!, wenn t > 1/N, können die folgenden Aktualisierungsregeln verwendet werden - Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!#🎜 🎜#

Unter ihnen

. Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Wenn t=1/N, verwendet der Forscher die deterministische Aktualisierungsformel, um Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! aus Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache! abzuleiten.

Es ist erwähnenswert, dass wir beachten, dass die Durchführung von Zufallsstichproben die Auswertung des Modells in etwas anderen Zeitschritten im Vergleich zu einem deterministischen Sampler erfordert und kleine Änderungen am Trainingsalgorithmus für Randfälle erfordert.

Andere Destillationsmethoden

Es gibt auch eine Methode, die progressive Destillation direkt auf das Anleitungsmodell anzuwenden, dh der Struktur des Lehrermodells zu folgen und das Lernmodell direkt in eine gemeinsame Trainingsbedingung zu destillieren und bedingungslose Modelle. Nachdem Forscher es ausprobiert hatten, stellten sie fest, dass diese Methode nicht wirksam war.

Experimente und Schlussfolgerungen

Modellexperimente wurden mit zwei Standarddatensätzen durchgeführt: ImageNet (64*64) und CIFAR 10.

Im Experiment wurden verschiedene Bereiche des Führungsgewichts w untersucht, und es wurde festgestellt, dass alle Bereiche vergleichbar waren, sodass für das Experiment [wmin, wmax] = [0, 4] verwendet wurde. Die Modelle des ersten und zweiten Schritts werden mithilfe des Signal-Rausch-Verlusts trainiert.

Zu den Grundstandards gehören DDPM-Ancestral-Sampling und DDIM-Sampling.

Um besser zu verstehen, wie das Führungsgewicht w einzubeziehen ist, wird ein mit einem festen w-Wert trainiertes Modell als Referenz verwendet.

Für einen fairen Vergleich verwendet das Experiment für alle Methoden dasselbe vorab trainierte Lehrermodell. Unter Verwendung der U-Net-Architektur (Ronneberger et al., 2015) als Basis und unter Verwendung desselben U-Net-Backbones wird eine Struktur mit darin eingebettetem w als zweistufiges Studentenmodell eingeführt.

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Das obige Bild zeigt die Leistung aller Methoden auf ImageNet 64x64. wobei D und S deterministische bzw. stochastische Sampler darstellen.

Im Experiment verlief das Modelltraining unter der Bedingung des Führungsintervalls w∈[0, 4] äquivalent zum Modelltraining mit w als festem Wert. Bei weniger Schritten übertrifft unsere Methode die DDIM-Basisleistung deutlich und erreicht im Wesentlichen das Leistungsniveau des Lehrermodells bei 8 bis 16 Schritten.

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

ImageNet 64x64-Stichprobenqualität, bewertet anhand von FID- und IS-Werten

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

CIFAR-10-Stichprobenqualität, bewertet anhand von FID- und IS-Werten

. Wir haben auch Lehrermodelle Die Kodierung Der Prozess wurde destilliert und Experimente zur Stilübertragung durchgeführt. Um insbesondere eine Stilübertragung zwischen zwei Domänen A und B durchzuführen, werden Bilder aus Domäne A mithilfe eines Diffusionsmodells codiert, das auf Domäne A trainiert wurde, und dann mithilfe eines Diffusionsmodells decodiert, das auf Domäne B trainiert wurde.

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Stanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!

Da der Codierungsprozess als invertierter DDIM-Abtastprozess verstanden werden kann, haben wir sowohl den Encoder als auch den Decoder mit klassifikatorfreier Führung destilliert und ihn mit dem DDIM-Encoder und -Decoder verglichen, wie in der Abbildung oben gezeigt. Wir untersuchen auch die Auswirkungen von Änderungen an der Boot-Stärke w auf die Leistung.

Zusammenfassend schlagen wir eine Destillationsmethode für geführte Diffusionsmodelle und einen Zufallsprobenehmer zur Probenahme aus dem destillierten Modell vor. Empirisch gesehen erreicht unsere Methode in nur einem Schritt eine visuell hohe Erfahrungsstichprobe und erzielt in nur 8 bis 16 Schritten FID/IS-Werte, die mit denen von Lehrern vergleichbar sind.

Das obige ist der detaillierte Inhalt vonStanford/Google Brain: Doppelte Destillation und geführte Diffusionsmodell-Probenahme beschleunigen sich um das 256-fache!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Wie man Deepseek kommentiert Wie man Deepseek kommentiert Feb 19, 2025 pm 05:42 PM

Deepseek ist ein leistungsstarkes Informations -Abruf -Tool. .

So suchen Sie Deepseek So suchen Sie Deepseek Feb 19, 2025 pm 05:39 PM

Deepseek ist eine proprietäre Suchmaschine, die nur schneller und genauer in einer bestimmten Datenbank oder einem bestimmten System sucht. Bei der Verwendung wird den Benutzern empfohlen, das Dokument zu lesen, verschiedene Suchstrategien auszuprobieren, Hilfe und Feedback zur Benutzererfahrung zu suchen, um die Vorteile optimal zu nutzen.

Sesame Open Door Exchange -Webseite Registrierung Link Gate Trading App Registrierung Website Neueste Sesame Open Door Exchange -Webseite Registrierung Link Gate Trading App Registrierung Website Neueste Feb 28, 2025 am 11:06 AM

In diesem Artikel wird der Registrierungsprozess der Webversion Sesam Open Exchange (GATE.IO) und die Gate Trading App im Detail vorgestellt. Unabhängig davon, ob es sich um eine Webregistrierung oder eine App -Registrierung handelt, müssen Sie die offizielle Website oder den offiziellen App Store besuchen, um die Genuine App herunterzuladen, und dann den Benutzernamen, das Kennwort, die E -Mail, die Mobiltelefonnummer und die anderen Informationen eingeben und eine E -Mail- oder Mobiltelefonüberprüfung abschließen.

Warum kann der Bybit -Exchange -Link nicht direkt heruntergeladen und installiert werden? Warum kann der Bybit -Exchange -Link nicht direkt heruntergeladen und installiert werden? Feb 21, 2025 pm 10:57 PM

Warum kann der Bybit -Exchange -Link nicht direkt heruntergeladen und installiert werden? Bitbit ist eine Kryptowährungsbörse, die den Benutzern Handelsdienste anbietet. Die mobilen Apps der Exchange können aus den folgenden Gründen nicht direkt über AppStore oder Googleplay heruntergeladen werden: 1. App Store -Richtlinie beschränkt Apple und Google daran, strenge Anforderungen an die im App Store zulässigen Anwendungsarten zu haben. Kryptowährungsanträge erfüllen diese Anforderungen häufig nicht, da sie Finanzdienstleistungen einbeziehen und spezifische Vorschriften und Sicherheitsstandards erfordern. 2. Die Einhaltung von Gesetzen und Vorschriften In vielen Ländern werden Aktivitäten im Zusammenhang mit Kryptowährungstransaktionen reguliert oder eingeschränkt. Um diese Vorschriften einzuhalten, kann die Bitbit -Anwendung nur über offizielle Websites oder andere autorisierte Kanäle verwendet werden

Sesame Open Door Trading Platform Download Mobile Version Gateio Trading Platform Download -Adresse Sesame Open Door Trading Platform Download Mobile Version Gateio Trading Platform Download -Adresse Feb 28, 2025 am 10:51 AM

Es ist wichtig, einen formalen Kanal auszuwählen, um die App herunterzuladen und die Sicherheit Ihres Kontos zu gewährleisten.

Gate.io Exchange Official Registration Portal Gate.io Exchange Official Registration Portal Feb 20, 2025 pm 04:27 PM

Gate.io ist ein führender Kryptowährungsaustausch, der eine breite Palette von Krypto -Vermögenswerten und Handelspaaren bietet. Registrierung von Gate.io ist sehr einfach. Vervollständigen Sie die Registrierung. Mit Gate.io können Benutzer ein sicheres und bequemes Kryptowährungshandelserlebnis genießen.

Binance Binance Offizielle Website Neueste Version Anmeldeportal Binance Binance Offizielle Website Neueste Version Anmeldeportal Feb 21, 2025 pm 05:42 PM

Befolgen Sie diese einfachen Schritte, um auf die neueste Version des Binance -Website -Login -Portals zuzugreifen. Gehen Sie zur offiziellen Website und klicken Sie in der oberen rechten Ecke auf die Schaltfläche "Anmeldung". Wählen Sie Ihre vorhandene Anmeldemethode. Geben Sie Ihre registrierte Handynummer oder E -Mail und Kennwort ein und vervollständigen Sie die Authentifizierung (z. B. Mobilfifizierungscode oder Google Authenticator). Nach einer erfolgreichen Überprüfung können Sie auf das neueste Version des offiziellen Website -Login -Portals von Binance zugreifen.

Die neueste Download -Adresse des Bitgets im Jahr 2025: Schritte zum Erhalten der offiziellen App Die neueste Download -Adresse des Bitgets im Jahr 2025: Schritte zum Erhalten der offiziellen App Feb 25, 2025 pm 02:54 PM

Dieser Leitfaden enthält detaillierte Download- und Installationsschritte für die offizielle Bitget Exchange -App, die für Android- und iOS -Systeme geeignet ist. Der Leitfaden integriert Informationen aus mehreren maßgeblichen Quellen, einschließlich der offiziellen Website, dem App Store und Google Play, und betont Überlegungen während des Downloads und des Kontoverwaltung. Benutzer können die App aus offiziellen Kanälen herunterladen, einschließlich App Store, offizieller Website APK Download und offizieller Website -Sprung sowie vollständige Registrierung, Identitätsüberprüfung und Sicherheitseinstellungen. Darüber hinaus deckt der Handbuch häufig gestellte Fragen und Überlegungen ab, wie z.

See all articles