IT House berichtete am 30. November, dass Stability AI kürzlich Stable Diffusion XL Turbo (SDXL Turbo) auf den Markt gebracht hat, eine verbesserte Version des vorherigen SDXL-Modells. Es wird gesagt, dass SDXL Turbo die „Adversarial Diffusion Distillation-Technologie“ verwendet, um die Iterationsschritte der Bilderzeugung von ursprünglich 50 Schritten auf einen Schritt zu reduzieren. Es wird gesagt, dass „nur ein Iterationsschritt erforderlich ist, um qualitativ hochwertige Bilder zu erzeugen“.
Es wird berichtet, dass das größte Merkmal des Stable Diffusion XL Turbo-Modells das oben erwähnte „Generieren von Bildern in einer Iteration“ ist, das angeblich in der Lage ist, eine „sofortige Text-zu-Bild-Ausgabe“ durchzuführen und die Qualität sicherzustellen die Bilder.
Was neu geschrieben werden muss, ist: Eine davon heißt „Adversarial Diffusion Destillation Technology“, eine Technologie, die das vorhandene groß angelegte Bilddiffusionsmodell als „Lehrernetzwerk“ nutzt, um den Generierungsprozess zu steuern. Diese Technologie kombiniert „Destillationstechnologie“ und „kontradiktorisches Training“, wobei sich „Destillationstechnologie“ auf die Verdichtung des Wissens eines großen Modells in einem kleineren Modell bezieht, um die Ausgabe des Modells zu optimieren. Und kontradiktorisches Training kann das Modell verbessern, sodass es die Ergebnisse des Lehrermodells besser nachahmen kann
Bei der Destillationstechnologie früherer Modelle war es schwierig, Effizienz und Qualität in Einklang zu bringen, da eine schnelle Abtastung normalerweise die Ausgabequalität schwächt. Daher ist dieses Stable Diffusion XL Turbo-Modell eine effektive Möglichkeit, mithilfe der „kontradiktorischen Diffusionsdestillationstechnologie“ effizient Bilder zu erzeugen .
Verglich Stable Diffusion XL Turbo offiziell mit mehreren verschiedenen Modellvarianten, darunter StyleGAN-T++, OpenMUSE, IF-XL, SDXL und LCM-XL, und führte zwei Experimente durch, von denen das erste Modellevaluatoren erforderte. Die Ausgabe der beiden Modelle wurde zufällig angezeigt und wählen Sie das Ausgabebild aus, das am besten zum Eingabewort passt. Das zweite Experiment wird ungefähr genauso durchgeführt wie das erste Experiment. Die Modellbewertung erfordert die Auswahl des Bildes mit der besten Bildqualität im Modell.
▲ Bilder vom Stability AI-Blog
Experimentelle Ergebnisse zeigen, dass Stable Diffusion XL Turbo den Rechenaufwand erheblich reduzieren kann und gleichzeitig eine hervorragende Bilderzeugungsqualität beibehält. Dieses Modell kann LCM-XL in nur einer Iteration übertreffen, verglichen mit LCM-XL, das vier Iterationen erforderte. Der Stable Diffusion XL Turbo, der 4 Iterationen durchlaufen hat, kann den Stable Diffusion XL, dessen Konfiguration zuvor 50 Iterationen erforderte, problemlos schlagen. Bei Verwendung der A100-GPU für die Bildberechnung mit einer Auflösung von 512 x 512 dauert die Fertigstellung nur 207 Millisekunden
IT House hat festgestellt, dass Stability AI derzeit den entsprechenden Code auf Hugging Face für den persönlichen und nicht kommerziellen Gebrauch veröffentlicht hat, um ihn zu besuchen.
Das obige ist der detaillierte Inhalt vonStability AI bringt das Stable Diffusion XL Turbo-Modell auf den Markt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!