Stability AI compte un nouveau membre dans sa grande famille de modèles.
Hier, après avoir lancé Stable Diffusion et Stable Video Diffusion, Stability AI a apporté à la communauté un grand modèle de génération de vidéo 3D "Stable Video 3D" (SV3D en abrégé).
Ce modèle est construit sur la base de la diffusion vidéo stable, son principal avantage est qu'il améliore considérablement la qualité de la génération 3D et la cohérence multi-vues. Par rapport au précédent Stable Zero123 lancé par Stability AI et au Zero123-XL open source commun, l'effet de ce modèle est encore meilleur.
Actuellement, Stable Video 3D prend en charge à la fois une utilisation commerciale, qui nécessite l'adhésion à Stability AI (adhésion) et une utilisation non commerciale, où les utilisateurs peuvent télécharger les poids du modèle sur Hugging Face.
Stability AI propose deux variantes de modèle, à savoir SV3D_u et SV3D_p. SV3D_u génère une vidéo orbitale basée sur une seule entrée d'image sans nécessiter de réglages de caméra, tandis que SV3D_p étend encore les capacités de génération en adaptant une seule image et une perspective orbitale, permettant aux utilisateurs de créer des vidéos 3D le long d'un chemin de caméra spécifié.
Actuellement, le document de recherche sur Stable Video 3D a été publié, avec trois auteurs principaux.
Stable Video 3D a réalisé des progrès significatifs dans le domaine de la génération 3D, en particulier dans la synthèse de génération de vues inédites. , NVS).
Les méthodes précédentes avaient souvent tendance à résoudre le problème des angles de vision limités et des entrées incohérentes, tandis que Stable Video 3D est capable de fournir une vue cohérente sous n'importe quel angle donné et de bien généraliser. En conséquence, le modèle augmente non seulement la contrôlabilité de la pose, mais garantit également une apparence cohérente des objets sur plusieurs vues, améliorant ainsi les problèmes clés affectant la génération 3D réaliste et précise.
Comme le montre la figure ci-dessous, par rapport à Stable Zero123 et Zero-XL, Stable Video 3D est capable de générer de nouvelles vues multiples avec des détails plus forts, une plus grande fidélité à l'image d'entrée et des points de vue multiples plus cohérents.
De plus, Stable Video 3D exploite sa cohérence multi-vues pour optimiser les champs de radiance neuronale 3D (NeRF) afin d'améliorer la qualité des maillages 3D générés directement à partir de nouvelles vues.
À cette fin, Stability AI a conçu un masque de perte d'échantillonnage par distillation fractionnée qui améliore encore la qualité 3D des régions invisibles dans la vue prédite. Également pour atténuer les problèmes d'éclairage, Stable Video 3D utilise un modèle d'éclairage découplé optimisé avec des formes et des textures 3D.
L'image ci-dessous montre un exemple de génération de maillage 3D améliorée grâce à l'optimisation 3D lors de l'utilisation du modèle Stable Video 3D et de sa sortie.
L'image ci-dessous montre la comparaison des résultats de maillage 3D générés à l'aide de Stable Video 3D avec ceux générés par EscherNet et Stable Zero123.
Détails de l'architecture
L'architecture du modèle Stable Video 3D est illustrée dans la figure 2 ci-dessous. Elle est construite sur la base de l'architecture Stable Video Diffusion et contient un UNet avec plusieurs couches, chacune d'elles. qui contient également une séquence de blocs résiduels avec une couche Conv3D et deux blocs de transformation avec des couches d'attention (spatiale et temporelle).
Le processus spécifique est le suivant :
(i) Supprimez les conditions vectorielles "fps id" et "motion bucket id" car elles n'ont rien à voir avec Stable Video 3D
(ii) Le l'image conditionnelle passe L'encodeur VAE de Stable Video Diffusion est intégré dans l'espace latent puis connecté à l'entrée d'état latent du bruit zt au pas de temps de bruit t menant à UNet
(iii) La matrice CLIPembedding de l'image conditionnelle est fournie ; à chaque bloc de transformateur Les couches d'attention croisée agissent comme des clés et des valeurs, et les requêtes deviennent des caractéristiques de la couche correspondante
(iv) La trajectoire de la caméra est introduite dans le bloc résiduel le long du pas de temps du bruit de diffusion ; Les angles de pose de la caméra ei et ai et le pas de temps de bruit t sont d'abord intégrés dans l'intégration de position sinusoïdale, puis les intégrations de pose de caméra sont concaténées ensemble pour une transformation linéaire et ajoutées à l'intégration de pas de temps de bruit, et enfin introduites dans chaque bloc résiduel et est ajouté aux fonctionnalités d’entrée du bloc.
De plus, Stability AI a conçu des orbites statiques et des orbites dynamiques pour étudier l'impact des ajustements de pose de la caméra, comme le montre la figure 3 ci-dessous.
Sur une orbite statique, la caméra tourne autour de l'objet dans un azimut équidistant en utilisant le même angle d'élévation que l'image de condition. L'inconvénient est qu'en fonction de l'angle d'élévation ajusté, vous risquez de ne pas obtenir d'informations sur le haut ou le bas de l'objet. Dans une orbite dynamique, les angles d'azimut peuvent être inégaux et les angles d'élévation de chaque vue peuvent également être différents.
Pour construire une orbite dynamique, Stability AI échantillonne une orbite statique, ajoute un petit bruit aléatoire à son azimut et une combinaison pondérée aléatoirement de sinusoïdes de différentes fréquences à son élévation. Cela assure une fluidité temporelle et garantit que la trajectoire de la caméra se termine le long de la même boucle d'azimut et d'élévation que l'image de condition.
Stability AI évalue les effets multi-vues composites Stable Video 3D sur des orbites statiques et dynamiques sur des ensembles de données GSO et OmniObject3D invisibles. Les résultats, présentés dans les tableaux 1 à 4 ci-dessous, montrent que Stable Video 3D atteint des performances de pointe en matière de nouvelle synthèse multi-vues.
Le Tableau 1 et le Tableau 3 montrent les résultats de Stable Video 3D par rapport à d'autres modèles sur des orbites statiques, montrant que même le modèle SV3D_u sans ajustement de pose fonctionne mieux que toutes les méthodes précédentes.
Les résultats de l'analyse d'ablation montrent que SV3D_c et SV3D_p surpassent SV3D_u dans la génération de trajectoires statiques, bien que cette dernière soit entraînée exclusivement sur des trajectoires statiques.
Le Tableau 2 et le Tableau 4 ci-dessous montrent les résultats de génération d'orbites dynamiques, y compris les modèles d'ajustement de pose SV3D_c et SV3D_p, ce dernier atteignant SOTA sur toutes les métriques.
Les résultats de la comparaison visuelle dans la figure 6 ci-dessous démontrent en outre que par rapport aux travaux précédents, les images générées par Stable Video 3D sont plus détaillées, plus fidèles à l'image conditionnelle et plus cohérentes dans plusieurs perspectives. .
Veuillez vous référer à l'article original pour plus de détails techniques et de résultats expérimentaux.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!