


'Famous Scenes from Huaguo Mountain' a une version haute définition et NTU propose un cadre vidéo de super-résolution Upscale-A-Video
Les modèles de diffusion ont obtenu un succès remarquable dans la génération d'images, mais leur application à la super-résolution vidéo reste encore difficile. La super-résolution vidéo nécessite une fidélité de sortie et une cohérence temporelle, ce qui est compliqué par la stochasticité inhérente aux modèles de diffusion. Par conséquent, appliquer efficacement des modèles de diffusion à la super-résolution vidéo reste une tâche difficile.
Une équipe de recherche du S-Lab de l'Université technologique de Nanyang a proposé un cadre de diffusion latente guidée par texte appelé Upscale-A-Video pour la super-résolution vidéo. Le cadre garantit la cohérence temporelle grâce à deux mécanismes clés. Premièrement, à l’échelle locale, il intègre des couches temporelles dans U-Net et VAE-Decoder pour maintenir la cohérence des séquences courtes. Deuxièmement, à l’échelle mondiale, le cadre introduit un module de propagation latente récurrente guidé par flux qui propage et fusionne les latents tout au long de la séquence sans formation, améliorant ainsi la stabilité globale de la vidéo. La proposition de ce framework fournit une nouvelle solution pour la super-résolution vidéo, avec une meilleure cohérence temporelle et stabilité globale.
Adresse papier : https://arxiv.org/abs/2312.06640
Upscale-A-Video gagne une grande flexibilité grâce au paradigme de diffusion. Il permet l'utilisation d'invites textuelles pour guider la création de textures, et les niveaux de bruit peuvent être ajustés pour équilibrer la fidélité et la qualité entre la récupération et la génération. Cette fonctionnalité permet à la technologie d'affiner les détails tout en conservant la signification du contenu original, ce qui donne des résultats plus précis.
Les résultats expérimentaux montrent qu'Upscale-A-Video surpasse les méthodes existantes sur les benchmarks synthétiques et réels, présentant un réalisme visuel et une cohérence temporelle impressionnants.
Jetons d'abord un coup d'œil à quelques exemples spécifiques. Par exemple, avec l'aide d'Upscale-A-Video, « Famous Scenes from Huaguo Mountain » a une version haute définition :

Par rapport à StableSR, Upscale. -A-Video fait la vidéo La texture des poils d'écureuil est clairement visible dans :

Introduction à la méthode
Certaines études optimisent les modèles de diffusion d'images pour s'adapter aux tâches vidéo en introduisant des stratégies de cohérence temporelle. Ces stratégies incluent les deux méthodes suivantes : premièrement, affiner les modèles vidéo via des couches temporelles, telles que la convolution 3D et l'attention temporelle, pour améliorer les performances de traitement vidéo. Deuxièmement, des mécanismes de tir zéro, tels que l'attention inter-images et l'attention guidée par le flux, sont utilisés pour ajuster le modèle pré-entraîné afin d'améliorer les performances des tâches vidéo. L'introduction de ces méthodes permet au modèle de diffusion d'images de mieux gérer les tâches vidéo, améliorant ainsi l'effet du traitement vidéo.
Bien que ces solutions améliorent considérablement la stabilité de la vidéo, deux problèmes majeurs subsistent :
Les méthodes actuelles fonctionnant dans les fonctionnalités U-Net ou les espaces latents ont du mal à maintenir une cohérence de bas niveau, et des problèmes tels que le scintillement des textures existent toujours.
Les couches temporelles et les mécanismes d'attention existants ne peuvent imposer des contraintes que sur de courtes séquences d'entrée locales, limitant leur capacité à assurer une cohérence temporelle globale dans des vidéos plus longues.
Pour résoudre ces problèmes, Upscale-A-Video adopte une stratégie locale-globale pour maintenir la cohérence temporelle dans la reconstruction vidéo, en se concentrant sur la texture fine et la cohérence globale. Sur des clips vidéo locaux, cette étude explore l'utilisation de couches temporelles supplémentaires sur les données vidéo pour affiner un modèle de super-résolution d'image ×4 pré-entraîné.
Plus précisément, dans le cadre de la diffusion latente, cette étude affine d'abord U-Net à l'aide de couches de convolution 3D et d'attention temporelle intégrées, puis utilise une entrée vidéo conditionnée et une convolution 3D pour régler le décodeur VAE. Le premier atteint de manière significative la stabilité structurelle des séquences locales, et le second améliore encore la cohérence de bas niveau et réduit le scintillement de la texture. À l'échelle mondiale, cette étude présente un nouveau module de propagation latente récurrente, guidé par flux, sans formation, qui effectue une propagation image par image et une fusion latente dans les deux sens pendant l'inférence, favorisant ainsi la stabilité globale des longues vidéos.
Le modèle Upscale-A-Video peut utiliser des invites textuelles comme conditions facultatives pour guider le modèle afin de produire des détails plus réalistes et de meilleure qualité, comme le montre la figure 1.

Upscale-A-Video divise la vidéo en segments et les traite à l'aide d'U-Net avec des couches temporelles pour obtenir une cohérence intra-segment. Un module de propagation latente récurrente est utilisé pour améliorer la cohérence inter-fragment lors de la diffusion de raffinement global spécifiée par l'utilisateur. Enfin, un décodeur VAE affiné réduit les artefacts de scintillement et atteint une cohérence de bas niveau.


Résultats expérimentaux
Upscale-A-Video atteint les performances SOTA sur les benchmarks existants, démontrant un excellent réalisme visuel et une cohérence temporelle.
Évaluation quantitative. Comme le montre le tableau 1, Upscale-A-Video atteint le PSNR le plus élevé dans les quatre ensembles de données synthétiques, ce qui indique ses excellentes capacités de reconstruction.
Évaluation qualitative. L'étude montre les résultats visuels des vidéos synthétiques et réelles dans les figures 4 et 5 respectivement. Upscale-A-Video surpasse considérablement les méthodes CNN et de diffusion existantes en termes de suppression d'artefacts et de génération de détails.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Montrez la chaîne causale à LLM et il pourra apprendre les axiomes. L'IA aide déjà les mathématiciens et les scientifiques à mener des recherches. Par exemple, le célèbre mathématicien Terence Tao a partagé à plusieurs reprises son expérience de recherche et d'exploration à l'aide d'outils d'IA tels que GPT. Pour que l’IA soit compétitive dans ces domaines, des capacités de raisonnement causal solides et fiables sont essentielles. La recherche présentée dans cet article a révélé qu'un modèle Transformer formé sur la démonstration de l'axiome de transitivité causale sur de petits graphes peut se généraliser à l'axiome de transitivité sur de grands graphes. En d’autres termes, si le Transformateur apprend à effectuer un raisonnement causal simple, il peut être utilisé pour un raisonnement causal plus complexe. Le cadre de formation axiomatique proposé par l'équipe est un nouveau paradigme pour l'apprentissage du raisonnement causal basé sur des données passives, avec uniquement des démonstrations.

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

Actuellement, les modèles linguistiques autorégressifs à grande échelle utilisant le prochain paradigme de prédiction de jetons sont devenus populaires partout dans le monde. Dans le même temps, un grand nombre d'images et de vidéos synthétiques sur Internet nous ont déjà montré la puissance des modèles de diffusion. Récemment, une équipe de recherche de MITCSAIL (dont Chen Boyuan, doctorant au MIT) a intégré avec succès les puissantes capacités du modèle de diffusion en séquence complète et du prochain modèle de jeton, et a proposé un paradigme de formation et d'échantillonnage : le forçage de diffusion (DF ). Titre de l'article : DiffusionForcing:Next-tokenPredictionMeetsFull-SequenceDiffusion Adresse de l'article : https://
