Maison Périphériques technologiques IA Prend en charge la synthèse de vidéos haute définition d'une minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Prend en charge la synthèse de vidéos haute définition d'une minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Jun 09, 2024 am 11:10 AM
产业 génération vidéo

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.
La rubrique AIxiv est une rubrique où des contenus académiques et techniques sont publiés sur ce site. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com

La génération de vidéos de danse humaine est une tâche de synthèse vidéo contrôlable convaincante et stimulante, visant à générer une vidéo basée sur des images de référence d'entrée et des séquences de poses cibles générées. vidéos continues réalistes de haute qualité. Avec le développement rapide de la technologie de génération vidéo, en particulier l'évolution itérative des modèles génératifs, la tâche de génération de vidéo de danse a réalisé des progrès sans précédent et a démontré un large éventail de potentiels d'application.

Les méthodes existantes peuvent être grossièrement divisées en deux groupes. Le premier groupe est généralement basé sur les Generative Adversarial Networks (GAN), qui exploitent une représentation intermédiaire guidée par la pose pour déformer les apparences de référence et générer des images vidéo plausibles à partir de cibles précédemment déformées. Cependant, les méthodes basées sur des réseaux antagonistes génératifs souffrent souvent d’un entraînement instable et de faibles capacités de généralisation, ce qui entraîne des artefacts évidents et une gigue inter-trame.

Le deuxième groupe utilise le modèle de diffusion pour synthétiser des vidéos réalistes. Ces méthodes présentent les avantages d'une formation stable et de fortes capacités de transfert, et fonctionnent mieux que les méthodes basées sur le GAN, notamment Disco, MagicAnimate, Animate Anybody, Champ, etc.

Bien que les méthodes basées sur les modèles de diffusion aient fait des progrès significatifs, les méthodes existantes présentent encore deux limites : Premièrement, un réseau de référence supplémentaire (ReferenceNet) est nécessaire pour encoder les caractéristiques de l'image de référence et les combiner avec 3D-UNet. L'alignement apparent des branches de base augmente la difficulté de formation et les paramètres de modélisation ; deuxièmement, ils utilisent généralement un transformateur temporel pour modéliser la dépendance temporelle entre les images vidéo, mais la complexité du transformateur devient quadratique avec la durée du temps généré. durée de synchronisation de la vidéo générée. Les méthodes typiques ne peuvent générer que 24 images vidéo, ce qui limite les possibilités pratiques de déploiement. Bien que la stratégie de fenêtre glissante de chevauchement temporel puisse générer des vidéos plus longues, les auteurs de l’équipe ont constaté que cette méthode conduit facilement à des problèmes de transitions irrégulières et d’incohérence d’apparence aux jonctions des segments superposés.

Pour résoudre ces problèmes, une équipe de recherche de l'Université des sciences et technologies de Huazhong, d'Alibaba et de l'Université des sciences et technologies de Chine a proposé le UniAnimate framework pour réaliser une génération de vidéo humaine efficace et à long terme.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

  • Adresse papier : https://arxiv.org/abs/2406.01188
  • Page d'accueil du projet : https://unianimate.github.io/

Introduction à la méthode

Le framework UniAnimate mappe d'abord l'image de référence, le guidage de pose et la vidéo de bruit dans l'espace des fonctionnalités, puis utilise le Modèle de diffusion vidéo unifié (Modèle de diffusion vidéo unifié) pour traiter simultanément l'alignement apparent de l'image de référence et de la branche principale de la vidéo et des tâches de débruitage vidéo pour un alignement efficace des fonctionnalités et une génération vidéo cohérente.

Deuxièmement, l'équipe de recherche a également proposé une entrée de bruit unifiée qui prend en charge l'entrée de bruit aléatoire et l'entrée de bruit conditionnelle basée sur la première image. L'entrée de bruit aléatoire peut générer une vidéo avec l'image de référence et la séquence de poses, et en fonction de celle-ci. L'entrée de bruit conditionnelle de la première image (First Frame Conditioning) utilise la première image de la vidéo comme entrée conditionnelle pour continuer à générer les vidéos suivantes. De cette manière, une inférence peut être générée en traitant la dernière image du segment vidéo précédent comme la première image du segment suivant, et ainsi de suite pour obtenir une génération vidéo longue dans un cadre.

Enfin, afin de traiter plus efficacement de longues séquences, l'équipe de recherche a exploré une architecture de modélisation temporelle basée sur le modèle d'espace d'états (Mamba) comme alternative au transformateur original de séries temporelles à forte intensité de calcul. Des expériences ont montré que l'architecture basée sur Mamba séquentiel peut produire des effets similaires à ceux du Transformer séquentiel, mais nécessite moins de surcharge de mémoire graphique.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Avec le framework UniAnimate, les utilisateurs peuvent générer des vidéos de danse humaine en séries chronologiques de haute qualité. Il convient de mentionner qu'en utilisant plusieurs fois la stratégie de conditionnement de la première image, une vidéo haute définition d'une minute peut être générée. Par rapport aux méthodes traditionnelles, UniAnimate présente les avantages suivants :

  • Pas besoin de réseaux de référence supplémentaires
     : Le cadre UniAnimate élimine la dépendance à l'égard de réseaux de référence supplémentaires grâce à un modèle de diffusion vidéo unifié, réduisant ainsi la difficulté de formation et le nombre de modèles. de paramètres.
  • Introduit la carte de pose de l'image de référence comme condition de référence supplémentaire
    , qui favorise l'apprentissage du réseau par la correspondance entre la pose de référence et la pose cible et permet d'obtenir un bon alignement apparent.
  • Générer des vidéos à longue séquence dans un cadre unifié
     : En ajoutant une entrée de bruit unifiée, UniAnimate est capable de générer des vidéos à long terme dans une image, n'étant plus soumises aux contraintes de temps des méthodes traditionnelles.
  • Haute cohérence
     : Le framework UniAnimate assure un effet de transition fluide de la vidéo générée en utilisant de manière itérative la première image comme condition pour générer les images suivantes, rendant la vidéo plus cohérente et plus cohérente en apparence. Cette stratégie permet également aux utilisateurs de générer plusieurs clips vidéo et de sélectionner la dernière image du clip avec de bons résultats comme première image du prochain clip généré, ce qui permet aux utilisateurs d'interagir plus facilement avec le modèle et d'ajuster les résultats de génération selon leurs besoins. Cependant, lors de la génération de longues vidéos à l'aide de la stratégie de fenêtre glissante du chevauchement des séries temporelles précédentes, la sélection de segments ne peut pas être effectuée car chaque vidéo est couplée les unes aux autres à chaque étape du processus de diffusion.

Les fonctionnalités ci-dessus rendent le framework UniAnimate excellent pour synthétiser des vidéos de danse humaine de haute qualité et à long terme, offrant de nouvelles possibilités pour un plus large éventail d'applications.

Exemple de résultats générés

1.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.2. Générez des vidéos de danse basées sur de vraies images.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.3. Génération de vidéos de danse basée sur des images de style argile.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate. 4. Le musc danse.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate. 5. Yann LeCun danse.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.6. Générez des vidéos de danse basées sur d'autres images inter-domaines.


7. Génération de vidéo de danse d'une minute. Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.
Pour des vidéos MP4 originales et d'autres exemples de vidéos HD, veuillez vous référer à la page d'accueil du projet du journal https://unianimate.github.io/.

Analyse comparative expérimentale

1. Expériences comparatives quantitatives avec les méthodes existantes sur l'ensemble de données TikTok.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Comme le montre le tableau ci-dessus, la méthode UniAnimate obtient les meilleurs résultats sur les indicateurs d'image tels que L1, PSNR, SSIM, LPIPS et les indicateurs vidéo FVD, indiquant qu'UniAnimate peut générer des résultats haute fidélité.

2. Expériences comparatives qualitatives avec les méthodes existantes.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Il ressort également des expériences comparatives qualitatives ci-dessus que, par rapport à MagicAnimate et Animate Any, la méthode UniAnimate peut générer de meilleurs résultats continus sans artefacts évidents, indiquant l'efficacité d'UniAnimate.

3.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Comme le montrent les résultats numériques du tableau ci-dessus, la pose de référence et le modèle de diffusion vidéo unifié utilisés dans UniAnimate jouent un rôle clé dans l'amélioration des performances.

4. Comparaison des stratégies de génération de vidéos longues.

Prend en charge la synthèse de vidéos haute définition dune minute. Huake et al. ont proposé un nouveau cadre pour la génération de vidéos de danse humaine, UniAnimate.

Comme le montre la figure ci-dessus, la stratégie de fenêtre coulissante à chevauchement temporel couramment utilisée pour générer de longues vidéos peut facilement conduire à des transitions discontinues. L'équipe de recherche estime que cela est dû au fait que différentes fenêtres ont des difficultés de débruitage incohérentes. la partie de chevauchement de synchronisation, rendant les résultats de génération différents, une moyenne directe entraînera une déformation ou une distorsion évidente, et cette incohérence provoquera une propagation d'erreur. La méthode de génération de continuation vidéo de première image utilisée dans cet article peut générer des transitions fluides.

Pour plus de résultats de comparaison expérimentale et d'analyse, veuillez vous référer à l'article original.

Dans l'ensemble, les exemples de résultats d'UniAnimate et les résultats de comparaison quantitative sont très bons. Nous attendons avec impatience l'application d'UniAnimate dans divers domaines, tels que la production cinématographique et télévisuelle, la réalité virtuelle et les industries du jeu, etc., pour apporter davantage aux utilisateurs. images humaines réalistes et passionnantes.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1664
14
Tutoriel PHP
1269
29
Tutoriel C#
1249
24
Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Aug 09, 2024 pm 04:01 PM

Mais peut-être qu’il ne pourra pas vaincre le vieil homme dans le parc ? Les Jeux Olympiques de Paris battent leur plein et le tennis de table suscite beaucoup d'intérêt. Dans le même temps, les robots ont également réalisé de nouvelles avancées dans le domaine du tennis de table. DeepMind vient tout juste de proposer le premier agent robot apprenant capable d'atteindre le niveau des joueurs amateurs humains de tennis de table de compétition. Adresse papier : https://arxiv.org/pdf/2408.03906 Quelle est la capacité du robot DeepMind à jouer au tennis de table ? Probablement à égalité avec les joueurs amateurs humains : tant en coup droit qu'en revers : l'adversaire utilise une variété de styles de jeu, et le robot peut également résister : recevoir des services avec des tours différents : Cependant, l'intensité du jeu ne semble pas aussi intense que le vieil homme dans le parc. Pour les robots, le tennis de table

La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison Aug 21, 2024 pm 07:33 PM

Le 21 août, la Conférence mondiale sur les robots 2024 s'est tenue en grande pompe à Pékin. La marque de robots domestiques de SenseTime, "Yuanluobot SenseRobot", a dévoilé toute sa famille de produits et a récemment lancé le robot de jeu d'échecs Yuanluobot AI - Chess Professional Edition (ci-après dénommé "Yuanluobot SenseRobot"), devenant ainsi le premier robot d'échecs au monde pour le maison. En tant que troisième produit robot jouant aux échecs de Yuanluobo, le nouveau robot Guoxiang a subi un grand nombre de mises à niveau techniques spéciales et d'innovations en matière d'IA et de machines d'ingénierie. Pour la première fois, il a réalisé la capacité de ramasser des pièces d'échecs en trois dimensions. grâce à des griffes mécaniques sur un robot domestique et effectuer des fonctions homme-machine telles que jouer aux échecs, tout le monde joue aux échecs, réviser la notation, etc.

Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Sep 02, 2024 pm 01:56 PM

La rentrée scolaire est sur le point de commencer, et ce ne sont pas seulement les étudiants qui sont sur le point de commencer le nouveau semestre qui doivent prendre soin d’eux-mêmes, mais aussi les grands modèles d’IA. Il y a quelque temps, Reddit était rempli d'internautes se plaignant de la paresse de Claude. « Son niveau a beaucoup baissé, il fait souvent des pauses et même la sortie devient très courte. Au cours de la première semaine de sortie, il pouvait traduire un document complet de 4 pages à la fois, mais maintenant il ne peut même plus produire une demi-page. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dans un post intitulé "Totalement déçu par Claude", plein de

Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Aug 22, 2024 pm 10:35 PM

Lors de la World Robot Conference qui se tient à Pékin, l'exposition de robots humanoïdes est devenue le centre absolu de la scène. Sur le stand Stardust Intelligent, l'assistant robot IA S1 a réalisé trois performances majeures de dulcimer, d'arts martiaux et de calligraphie. un espace d'exposition, capable à la fois d'arts littéraires et martiaux, a attiré un grand nombre de publics professionnels et de médias. Le jeu élégant sur les cordes élastiques permet au S1 de démontrer un fonctionnement fin et un contrôle absolu avec vitesse, force et précision. CCTV News a réalisé un reportage spécial sur l'apprentissage par imitation et le contrôle intelligent derrière "Calligraphy". Le fondateur de la société, Lai Jie, a expliqué que derrière les mouvements soyeux, le côté matériel recherche le meilleur contrôle de la force et les indicateurs corporels les plus humains (vitesse, charge). etc.), mais du côté de l'IA, les données réelles de mouvement des personnes sont collectées, permettant au robot de devenir plus fort lorsqu'il rencontre une situation forte et d'apprendre à évoluer rapidement. Et agile

Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Les contributeurs ont beaucoup gagné de cette conférence ACL. L'ACL2024, d'une durée de six jours, se tient à Bangkok, en Thaïlande. ACL est la plus grande conférence internationale dans le domaine de la linguistique informatique et du traitement du langage naturel. Elle est organisée par l'Association internationale pour la linguistique informatique et a lieu chaque année. L'ACL s'est toujours classée première en termes d'influence académique dans le domaine de la PNL, et c'est également une conférence recommandée par le CCF-A. La conférence ACL de cette année est la 62e et a reçu plus de 400 travaux de pointe dans le domaine de la PNL. Hier après-midi, la conférence a annoncé le meilleur article et d'autres récompenses. Cette fois, il y a 7 Best Paper Awards (deux inédits), 1 Best Theme Paper Award et 35 Outstanding Paper Awards. La conférence a également décerné 3 Resource Paper Awards (ResourceAward) et Social Impact Award (

L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o Sep 03, 2024 pm 05:18 PM

Intégration profonde de la vision et de l'apprentissage des robots. Lorsque deux mains de robot travaillent ensemble en douceur pour plier des vêtements, verser du thé et emballer des chaussures, associées au robot humanoïde 1X NEO qui a fait la une des journaux récemment, vous pouvez avoir le sentiment : nous semblons entrer dans l'ère des robots. En fait, ces mouvements soyeux sont le produit d’une technologie robotique avancée + d’une conception de cadre exquise + de grands modèles multimodaux. Nous savons que les robots utiles nécessitent souvent des interactions complexes et exquises avec l’environnement, et que l’environnement peut être représenté comme des contraintes dans les domaines spatial et temporel. Par exemple, si vous souhaitez qu'un robot verse du thé, le robot doit d'abord saisir la poignée de la théière et la maintenir verticalement sans renverser le thé, puis la déplacer doucement jusqu'à ce que l'embouchure de la théière soit alignée avec l'embouchure de la tasse. , puis inclinez la théière selon un certain angle. ce

Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Conférence sur l'intelligence artificielle distribuée Appel à communications DAI 2024 : Agent Day, Richard Sutton, le père de l'apprentissage par renforcement, sera présent ! Yan Shuicheng, Sergey Levine et les scientifiques de DeepMind prononceront des discours d'ouverture Aug 22, 2024 pm 08:02 PM

Introduction à la conférence Avec le développement rapide de la science et de la technologie, l'intelligence artificielle est devenue une force importante dans la promotion du progrès social. À notre époque, nous avons la chance d’être témoins et de participer à l’innovation et à l’application de l’intelligence artificielle distribuée (DAI). L’intelligence artificielle distribuée est une branche importante du domaine de l’intelligence artificielle, qui a attiré de plus en plus d’attention ces dernières années. Les agents basés sur de grands modèles de langage (LLM) ont soudainement émergé. En combinant les puissantes capacités de compréhension du langage et de génération des grands modèles, ils ont montré un grand potentiel en matière d'interaction en langage naturel, de raisonnement par connaissances, de planification de tâches, etc. AIAgent reprend le grand modèle de langage et est devenu un sujet brûlant dans le cercle actuel de l'IA. Au

Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Aug 08, 2024 am 07:02 AM

Cet après-midi, Hongmeng Zhixing a officiellement accueilli de nouvelles marques et de nouvelles voitures. Le 6 août, Huawei a organisé la conférence de lancement de nouveaux produits Hongmeng Smart Xingxing S9 et Huawei, réunissant la berline phare intelligente panoramique Xiangjie S9, le nouveau M7Pro et Huawei novaFlip, MatePad Pro 12,2 pouces, le nouveau MatePad Air, Huawei Bisheng With de nombreux nouveaux produits intelligents tous scénarios, notamment la série d'imprimantes laser X1, FreeBuds6i, WATCHFIT3 et l'écran intelligent S5Pro, des voyages intelligents, du bureau intelligent aux vêtements intelligents, Huawei continue de construire un écosystème intelligent complet pour offrir aux consommateurs une expérience intelligente du Internet de tout. Hongmeng Zhixing : Autonomisation approfondie pour promouvoir la modernisation de l'industrie automobile intelligente Huawei s'associe à ses partenaires de l'industrie automobile chinoise pour fournir

See all articles