IT House a rapporté le 30 novembre que Stability AI avait récemment lancé Stable Diffusion XL Turbo (SDXL Turbo), qui est une version améliorée du modèle SDXL précédent. On dit que SDXL Turbo utilise la « technologie de distillation par diffusion contradictoire » pour réduire les étapes d'itération de génération d'images des 50 étapes d'origine à 1 étape. On dit qu'« une seule étape d'itération est nécessaire pour générer des images de haute qualité ». »
Il est rapporté que la plus grande caractéristique du modèle Stable Diffusion XL Turbo est la « génération d'images en une seule itération » mentionnée ci-dessus, qui est censée être capable d'effectuer une « sortie texte-image instantanée » et d'assurer la qualité de les images.
Ce qui doit être réécrit est : l'une d'entre elles est appelée « technologie de distillation par diffusion contradictoire », qui est une technologie qui utilise le modèle de diffusion d'images à grande échelle existant comme « réseau d'enseignants » pour guider le processus de génération. Cette technologie combine la « technologie de distillation » et la « formation contradictoire », la « technologie de distillation » faisant référence à la condensation des connaissances d'un grand modèle dans un modèle plus petit afin de rationaliser le résultat du modèle. Et la formation contradictoire peut améliorer le modèle afin qu'il puisse mieux imiter le résultat du modèle d'enseignant
La technologie de distillation du modèle précédent était difficile à équilibrer efficacité et qualité car un échantillonnage rapide affaiblit généralement la qualité de sortie. Par conséquent, ce modèle Stable Diffusion XL Turbo est un moyen efficace de générer efficacement des images de haute qualité grâce à la « technologie de distillation par diffusion contradictoire ». .
Comparé officiellement Stable Diffusion XL Turbo avec plusieurs variantes de modèles différentes, notamment StyleGAN-T++, OpenMUSE, IF-XL, SDXL et LCM-XL, et mené deux expériences, dont la première nécessitait des évaluateurs de modèles. Visualisez aléatoirement la sortie des deux modèles. et sélectionnez l'image de sortie qui correspond le mieux au mot d'invite. La deuxième expérience est à peu près la même que la première expérience. L'évaluation du modèle nécessite de sélectionner celle avec la meilleure qualité d'image dans le modèle.
▲ Photos du blog Stability AI
Les résultats expérimentaux montrent que Stable Diffusion XL Turbo peut réduire considérablement les besoins informatiques tout en conservant une excellente qualité de génération d'images. Ce modèle surpasse le LCM-XL en une seule itération contre 4 itérations. Le Stable Diffusion XL Turbo, qui a subi 4 itérations, peut facilement battre le Stable Diffusion XL dont la configuration nécessitait auparavant 50 itérations. Lorsque vous utilisez le GPU A100 pour le calcul d’images à une résolution de 512 x 512, cela ne prend que 207 millisecondes
IT House a remarqué que Stability AI a actuellement publié le code correspondant sur Hugging Face pour un usage personnel et non commercial. Les amis intéressés peuvent cliquer ici pour le visiter.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!