


Le rapport technique de Stable Diffusion 3 a fuité, l'architecture Sora a encore fait de grandes réalisations ! La communauté open source bat-elle violemment Midjourney et DALL·E 3 ?
Stability AI a publié aujourd'hui un rapport technique détaillé après la sortie de Stable Diffusion 3.
L'article fournit une analyse approfondie de la technologie de base de Stable Diffusion 3 - une version améliorée du modèle de diffusion et une nouvelle architecture de graphes vincentiens basée sur DiT !
Adresse de déclaration :
https://www.php.cn/link/e5fb88b398b042f6cccce46bf3fa53e8
Test d'évaluation humaine réussi, Stable D iffusion 3. Dans la conception des polices et la réponse précise aux invites En termes de performances, il surpasse DALL·E 3, Midjourney v6 et Ideogram v1.
La nouvelle architecture de transformateur de diffusion multimodale (MMDiT) développée par Stability AI utilise des ensembles de poids indépendants spécifiquement pour la représentation d'images et de langage. Par rapport aux versions antérieures de SD 3, MMDiT a réalisé des améliorations significatives en matière de compréhension et d'orthographe du texte.
Évaluation des performances
Basé sur des commentaires humains, le rapport technique compare SD 3 à un grand nombre de modèles open source SDXL, SDXL Turbo, Stable Cascade, Playground v2.5 et Pixart-α, ainsi que ainsi que les modèles à source fermée DALL·E 3, Midjourney v6 et Ideogram v1 ont été évalués en détail.
Les évaluateurs sélectionnent le meilleur résultat pour chaque modèle en fonction de la cohérence des invites spécifiées, de la clarté du texte et de l'esthétique globale des images.
Les résultats du test montrent que Stable Diffusion 3 a atteint ou dépassé le plus haut niveau de technologie actuelle de génération de diagrammes vincentiens, que ce soit en termes de précision dans le suivi des invites, de présentation claire du texte ou de beauté visuelle des images.
Le modèle SD 3, totalement non optimisé pour le matériel, possède des paramètres 8B, est capable de fonctionner sur un GPU grand public RTX 4090 avec 24 Go de mémoire vidéo et produit une résolution de 1024 x 1024 en utilisant 50 étapes d'échantillonnage. L'image prend 34 secondes. .
De plus, Stable Diffusion 3 fournira plusieurs versions lors de sa sortie, avec des paramètres allant de 800 millions à 8 milliards, ce qui peut encore abaisser le seuil matériel d'utilisation.
Détails architecturaux exposés
Dans le processus de génération du diagramme de Vincent, le modèle doit traiter deux types d'informations différents, le texte et l'image, en même temps. L'auteur appelle donc ce nouveau framework MMDiT.
Dans le processus de génération de texte en image, le modèle doit traiter deux types d'informations différents, le texte et l'image, en même temps. C'est pourquoi les auteurs appellent cette nouvelle technologie MMDiT (abréviation de Multimodal Diffusion Transformer).
Comme les versions précédentes de Stable Diffusion, SD 3 utilise un modèle pré-entraîné pour extraire des expressions appropriées de texte et d'images.
Plus précisément, ils ont utilisé trois encodeurs de texte différents (deux modèles CLIP et un T5) pour traiter les informations textuelles, tout en utilisant un modèle d'encodage automatique plus avancé pour traiter les informations d'image.
L'architecture du SD 3 est construite sur la base du Diffusion Transformer (DiT). En raison de la différence entre les informations textuelles et images, SD 3 définit des pondérations indépendantes pour chacun de ces deux types d'informations.
Cette conception équivaut à équiper deux transformateurs indépendants pour chaque type d'information, mais lors de l'exécution du mécanisme d'attention, les séquences de données des deux types d'informations seront fusionnées, afin qu'elles puissent fonctionner indépendamment dans leurs domaines respectifs et se maintenir. référence mutuelle et intégration.
Grâce à cette architecture unique, les informations d'image et de texte peuvent circuler et interagir les unes avec les autres, améliorant ainsi la compréhension globale du contenu et la représentation visuelle dans les résultats générés.
De plus, cette architecture pourra être facilement étendue à d'autres modalités, dont la vidéo dans le futur.
Grâce aux améliorations apportées par SD 3 aux invites suivantes, le modèle est capable de générer avec précision des images qui se concentrent sur une variété de thèmes et de fonctionnalités différents, tout en conservant un haut degré de flexibilité dans le style d'image.
Flux rectifié amélioré grâce à la méthode de repondération
En plus de la nouvelle architecture du transformateur de diffusion, SD 3 a également apporté des améliorations significatives au modèle de diffusion.
SD 3 adopte la stratégie Rectified Flow (RF) pour connecter les données d'entraînement et le bruit le long d'une trajectoire droite.
Cette méthode rend le chemin d'inférence du modèle plus direct, de sorte que la génération d'échantillons peut être effectuée en moins d'étapes.
L'auteur a introduit un plan d'échantillonnage de trajectoire innovant dans le processus d'entraînement, en augmentant particulièrement le poids sur la partie médiane de la trajectoire, où la tâche de prédiction est plus difficile.
En comparant avec 60 autres trajectoires de diffusion (telles que LDM, EDM et ADM), les auteurs ont constaté que même si la méthode RF précédente fonctionnait mieux dans l'échantillonnage en quelques étapes, les performances diminuaient lentement à mesure que le nombre d'étapes d'échantillonnage augmentait. .
Afin d'éviter cette situation, la méthode RF pondérée proposée par l'auteur peut continuer à améliorer les performances du modèle.
Modèle de transformateur RF étendu
Stability AI a formé plusieurs modèles de différentes tailles, de 15 modules et 450 millions de paramètres à 38 modules et 8B paramètres, et a constaté que la taille du modèle et les étapes de formation peuvent réduire en douceur la perte de vérification.
Pour vérifier si cela signifiait une amélioration substantielle des résultats du modèle, ils ont également évalué les mesures d'alignement automatique des images et les scores de préférence humaine.
Les résultats montrent que ces indicateurs d'évaluation sont fortement corrélés à la perte de vérification, indiquant que la perte de vérification est un indicateur efficace pour mesurer la performance globale du modèle.
De plus, cette tendance à l'expansion n'a pas atteint un point de saturation, ce qui nous rend optimistes quant à la possibilité d'améliorer encore les performances du modèle à l'avenir.
L'auteur a entraîné le modèle pour 500 000 étapes avec différents nombres de paramètres à une résolution de 256 * 256 pixels et une taille de lot de 4096.
La figure ci-dessus illustre l'impact de la formation d'un modèle plus grand pendant une longue période sur la qualité des échantillons.
Le tableau ci-dessus présente les résultats de GenEval. En utilisant la méthode de formation proposée par les auteurs et en augmentant la résolution des images de formation, le plus grand modèle a obtenu de bons résultats dans la plupart des catégories, dépassant DALL·E de 3 dans le score global.
Selon la comparaison des tests de l'auteur sur différents modèles d'architecture, MMDiT est très efficace, surpassant DiT, Cross DiT, UViT et MM-DiT.
Encodeur de texte flexible
En supprimant l'encodeur de texte T5 à paramètre 4,7B gourmand en mémoire pendant la phase d'inférence, les besoins en mémoire du SD 3 sont considérablement réduits avec une perte de performances minimale.
La suppression de cet encodeur de texte n'affectera pas la beauté visuelle de l'image (taux de victoire de 50 % sans T5), mais ne réduira que légèrement la capacité du texte à suivre avec précision (taux de victoire de 46 %).
Cependant, afin de tirer pleinement parti de la capacité du SD 3 à générer du texte, l'auteur recommande toujours d'utiliser l'encodeur T5.
Parce que l'auteur a constaté que sans cela, les performances de composition du texte généré auraient une baisse plus importante (taux de victoire de 38%).
Discussion animée parmi les internautes
Les internautes sont un peu impatients face aux efforts continus de Stability AI pour taquiner les utilisateurs mais refusent de l'utiliser, et ils exhortent à le lancer le plus rapidement possible pour que tout le monde puisse l'utiliser .
Après avoir lu l'application technique, les internautes ont déclaré qu'il semble que le cercle de la photographie deviendra désormais la première piste où l'open source écrasera le fermé !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

Plus tôt ce mois-ci, des chercheurs du MIT et d'autres institutions ont proposé une alternative très prometteuse au MLP – KAN. KAN surpasse MLP en termes de précision et d’interprétabilité. Et il peut surpasser le MLP fonctionnant avec un plus grand nombre de paramètres avec un très petit nombre de paramètres. Par exemple, les auteurs ont déclaré avoir utilisé KAN pour reproduire les résultats de DeepMind avec un réseau plus petit et un degré d'automatisation plus élevé. Plus précisément, le MLP de DeepMind compte environ 300 000 paramètres, tandis que le KAN n'en compte qu'environ 200. KAN a une base mathématique solide comme MLP est basé sur le théorème d'approximation universelle, tandis que KAN est basé sur le théorème de représentation de Kolmogorov-Arnold. Comme le montre la figure ci-dessous, KAN a

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

L’IA change effectivement les mathématiques. Récemment, Tao Zhexuan, qui a prêté une attention particulière à cette question, a transmis le dernier numéro du « Bulletin de l'American Mathematical Society » (Bulletin de l'American Mathematical Society). En se concentrant sur le thème « Les machines changeront-elles les mathématiques ? », de nombreux mathématiciens ont exprimé leurs opinions. L'ensemble du processus a été plein d'étincelles, intense et passionnant. L'auteur dispose d'une équipe solide, comprenant Akshay Venkatesh, lauréat de la médaille Fields, le mathématicien chinois Zheng Lejun, l'informaticien de l'Université de New York Ernest Davis et de nombreux autres universitaires bien connus du secteur. Le monde de l’IA a radicalement changé. Vous savez, bon nombre de ces articles ont été soumis il y a un an.

Les performances de JAX, promu par Google, ont dépassé celles de Pytorch et TensorFlow lors de récents tests de référence, se classant au premier rang sur 7 indicateurs. Et le test n’a pas été fait sur le TPU présentant les meilleures performances JAX. Bien que parmi les développeurs, Pytorch soit toujours plus populaire que Tensorflow. Mais à l’avenir, des modèles plus volumineux seront peut-être formés et exécutés sur la base de la plate-forme JAX. Modèles Récemment, l'équipe Keras a comparé trois backends (TensorFlow, JAX, PyTorch) avec l'implémentation native de PyTorch et Keras2 avec TensorFlow. Premièrement, ils sélectionnent un ensemble de

Aujourd'hui, j'aimerais partager un travail de recherche récent de l'Université du Connecticut qui propose une méthode pour aligner les données de séries chronologiques avec de grands modèles de traitement du langage naturel (NLP) sur l'espace latent afin d'améliorer les performances de prévision des séries chronologiques. La clé de cette méthode consiste à utiliser des indices spatiaux latents (invites) pour améliorer la précision des prévisions de séries chronologiques. Titre de l'article : S2IP-LLM : SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting Adresse de téléchargement : https://arxiv.org/pdf/2403.05798v1.pdf 1. Modèle de fond de problème important

La dernière vidéo du robot Optimus de Tesla est sortie, et il peut déjà fonctionner en usine. À vitesse normale, il trie les batteries (les batteries 4680 de Tesla) comme ceci : Le responsable a également publié à quoi cela ressemble à une vitesse 20 fois supérieure - sur un petit "poste de travail", en sélectionnant et en sélectionnant et en sélectionnant : Cette fois, il est publié L'un des points forts de la vidéo est qu'Optimus réalise ce travail en usine, de manière totalement autonome, sans intervention humaine tout au long du processus. Et du point de vue d'Optimus, il peut également récupérer et placer la batterie tordue, en se concentrant sur la correction automatique des erreurs : concernant la main d'Optimus, le scientifique de NVIDIA Jim Fan a donné une évaluation élevée : la main d'Optimus est l'un des robots à cinq doigts du monde. le plus adroit. Ses mains ne sont pas seulement tactiles

Cet article explore le problème de la détection précise d'objets sous différents angles de vue (tels que la perspective et la vue à vol d'oiseau) dans la conduite autonome, en particulier comment transformer efficacement les caractéristiques de l'espace en perspective (PV) en vue à vol d'oiseau (BEV). implémenté via le module Visual Transformation (VT). Les méthodes existantes sont globalement divisées en deux stratégies : la conversion 2D en 3D et la conversion 3D en 2D. Les méthodes 2D vers 3D améliorent les caractéristiques 2D denses en prédisant les probabilités de profondeur, mais l'incertitude inhérente aux prévisions de profondeur, en particulier dans les régions éloignées, peut introduire des inexactitudes. Alors que les méthodes 3D vers 2D utilisent généralement des requêtes 3D pour échantillonner des fonctionnalités 2D et apprendre les poids d'attention de la correspondance entre les fonctionnalités 3D et 2D via un transformateur, ce qui augmente le temps de calcul et de déploiement.
