


Yang Dong, directeur technique de la plateforme Unity Greater China : Démarrer le voyage humain numérique dans le métaverse
En tant que pierre angulaire de la création de contenu métaverse, les personnes numériques sont les premiers scénarios matures de subdivision métaverse qui peuvent être mises en œuvre et développées de manière durable. Actuellement, les idoles virtuelles, la livraison de commerce électronique, l'hébergement TV, les présentateurs virtuels, etc. Les applications commerciales ont été reconnues par le public. Dans le monde du Metaverse, l'un des contenus les plus essentiels n'est autre que les humains numériques, car les humains numériques ne sont pas seulement les « incarnations » des humains du monde réel dans le Metaverse, ils sont également l'un des véhicules importants pour nous de effectuer diverses interactions dans celui du Metaverse.
Il est bien connu que la création et le rendu réalistes de personnages humains numériques sont l'un des problèmes les plus difficiles en infographie. Récemment, lors du sous-site « Game and AI Interaction » de la conférence MetaCon Metaverse Technology organisée par 51CTO, Yang Dong, directeur technologique de la plate-forme Unity Greater China, a donné une série de démonstrations dans « Unity Digital Human Technology - Starting a Journey to le Metaverse" "Le partage thématique de la technologie de pipeline de rendu Unity HD est présenté en détail.
1. Introduction à Unity
Unity est actuellement la plate-forme informatique la plus prise en charge au monde et prend désormais en charge près de 30 plates-formes informatiques, dont PC, Mac, Linux, iOS, Android, Switch, PlayStation, Xbox et tous les appareils AR/VR, MMAT et autres. Si vous produisez du contenu interactif en trois dimensions, Unity est actuellement le meilleur choix. Nous savons que le rendu haute définition est utilisé pour restituer du contenu haute définition sur certaines machines équipées de cartes graphiques indépendantes. La technologie humaine numérique dite réaliste s'appuie désormais sur la technologie de rendu haute définition.
Actuellement, l'équipe Unity Chine compte plus de 300 employés à temps plein, près de 7 000 personnes dans le monde, et plus de 70 % sont des ingénieurs. Le siège social est à Shanghai, avec des bureaux à Pékin et Guangzhou, et les employés correspondants y travaillent.
2. Quels sont les aspects puissants du moteur Unity ?
À l'heure actuelle, bien que Unity ne soit pas un moteur Kaiyuan, ses modules sont hautement personnalisables.
L'image montre les plateformes actuellement prises en charge par Unity. Certaines des plateformes les plus courantes peuvent être trouvées sur ces icônes. Il s'agit peut-être de certains des jeux les plus populaires de ces dernières années, et certaines de ces icônes sont relativement familières, comme Honor of Kings, CALL DUTY, League of Legends, Genshin Impact, Fall Bean Man, Shining Nuan Nuan... En fait, plus de 70 % des 1 000 jeux les plus rentables sur les listes Android et iOS nationales et étrangères sont créés par Unity. Plus de la moitié des jeux Switch sont réalisés avec Unity. Vous ne croirez peut-être pas qu'un jeu qui a l'air très complexe avec une qualité graphique élevée et qui était un jeu à succès lancé pour la première fois sur Xbox, a été développé par une seule personne, ce qui démontre pleinement la flexibilité du moteur Unity et la puissance de la chaîne d'outils. .
Unity évolue dans le sens de hautes performances et d'efficacité. Laissez-moi vous expliquer les trois principaux composants du système Dots, le système C#Job, ECS et le compilateur Burst. Le système C#Job permet en fait aux jeux ou applications développés d'utiliser pleinement la puissance de calcul simultanée du processeur intégré, car le modèle de programmation orienté objet actuel est le contenu de production, qui s'exécute sur le thread principal. Le second est le système de composants d'entité (ECS). Grâce au système de composants d'entité, les données peuvent être séparées du système, c'est-à-dire la logique du jeu, qui est plus facile à maintenir et plus conviviale pour l'utilisation de la mémoire. Burst Compiler peut générer un code machine plus performant pour la plate-forme cible.
D'un autre côté, une qualité d'image élevée est également une très bonne fonctionnalité d'Unity. Si vous dites simplement que vous devez utiliser un PC coûteux ou une machine Xbox ou Playstation coûteuse pour restituer de beaux graphismes, en fait la polyvalence du jeu est trop faible. Unity utilise XRP, ce qu'on appelle le pipeline de rendu variable, pour créer deux ensembles de pipelines de rendu prêts à l'emploi pour tout le monde. L'un est le pipeline de rendu universel URP et le second est le HDRP (pipeline de rendu haute définition). . Comme son nom l'indique, le pipeline de rendu universel d'URP est pris en charge par toutes les plateformes. Que vous développiez des jeux VR, des jeux AR ou des jeux mobiles, URP peut être utilisé pour les travaux de rendu. HDRP fait référence aux plates-formes PC Mac Linux, Xbox1 et basestation4 et supérieures, qui prennent également en charge le traçage de rayons en temps réel.
3. Comment le pipeline de rendu HD permet-il d'obtenir un rendu de haute qualité des humains numériques ?
L'homme numérique « Païen » n'est en fait pas le premier homme numérique produit par Unity, mais l'homme numérique « Païen » a sa propre unicité, car cet homme numérique est très réaliste et constitue un ensemble complet de flux de travail. . Pour obtenir un rendu de haute qualité comme "Infidel", un pipeline de rendu haute définition est essentiel.
La personne numérique "The Infidel" a en fait un prototype. Il s'agit d'un acteur de théâtre britannique à Londres, nommé Jack. En scannant ses données, ce sont les données de tout son corps, et l'objectif est de scanner sa tête. Ces données sont utilisées pour créer l'intégralité de l'humain numérique. Les expressions sont très réalistes. Une technologie vidéo volumétrique 4D est utilisée pour créer des animations d'expression. Le défaut est qu'il ne peut pas être piloté en temps réel. Il peut réaliser des animations d'expression de personnages au cinéma et à la télévision sans aucun problème, mais il ne peut pas être piloté en temps réel.
Dans certains cas réussis, vous pouvez jeter un œil au rendu des yeux et du rendu de la peau, examinons-les respectivement.
Afin d'améliorer la qualité de la peau, les technologies suivantes ont été ajoutées. Detail Map est une carte détaillée. Le lobe spéculaire secondaire est le point culminant de la deuxième couche, l'occlusion spéculaire de la cavité fait référence à la dépression, qui peut bloquer le point culminant, et la diffusion souterraine de l'espace d'écran fait référence à la diffusion souterraine de l'espace de l'écran.
La première carte détaillée est principalement utilisée pour simuler des textures telles que des détails sur la surface de la peau. Cette texture n'est pas grande, c'est une texture 1K.
La deuxième couche de surbrillance, Lobe spéculaire secondaire, est utilisée pour simuler la couche d'huile à la surface de la peau. Parce que la peau va être grasse et que même la peau a l'air sèche, il est nécessaire de l'utiliser. méthode pour ajouter une deuxième couche de surbrillance.
Le troisième est le point culminant en contrebas, qui consiste à couvrir le point culminant au centre de la zone en contrebas. Après avoir ajouté la deuxième couche de reflets, des reflets apparaissent également dans les zones creuses de la peau, ce qui est évidemment irréaliste. Les reflets doivent être masqués afin qu'aucun reflet n'apparaisse dans les zones creuses.
Le quatrième est la diffusion souterraine dans l'espace de l'écran, qui est utilisée pour créer l'effet de la peau elle-même. Nous savons que la peau elle-même a un effet dit 3S, appelé effet de diffusion souterraine. La peau doit évidemment utiliser la diffusion souterraine, mais traditionnellement, lorsque nous utilisons un logiciel de rendu hors ligne tel que MAYA ou 3Dmax pour simuler cette peau, le rendu de l'effet de la diffusion souterraine prend beaucoup de temps. Dans Unity, il existe en fait deux techniques pour restituer les effets de diffusion souterraine. La première est la technologie Screen Space Subsurface Scattering, qui rend le rendu plus rapide. La seconde est celle du vol léger. De toute évidence, la méthode de vol léger est plus réaliste.
Ce personnage est le personnage de la petite fille dans le court métrage "The Wind-Up Musician". Le personnage de la petite fille utilise également l'effet de diffusion souterraine de l'espace de l'écran. Les feuilles de droite utilisent en fait l’effet de diffusion souterraine.
Parlons ensuite du rendu pour les yeux. En fait, l'œil est un objet très complexe. Il est composé de nombreuses parties. En simulant un véritable globe oculaire dans un rendu en temps réel, la simulation de quatre parties : la cornée, la pupille, l'iris et la sclère permet déjà d'obtenir des effets très réalistes.
Comme le montre l'image, notre globe oculaire lui-même est un objet très complexe. Il y a en fait une différence entre la vue de face et la vue de côté, en particulier le phénomène de réfraction en perspective de l'iris s'il est rendu normalement. , cette photo est du très célèbre personnage de Digital Man à la GDC.
Le globe oculaire humain numérique est en fait modélisé selon la forme d'un globe oculaire réel, et il aura des peintres spéciaux pour représenter les différents paramètres du globe oculaire. Y compris sa réflexion, les cartes normales sur la sclère et l'iris, les effets qui peuvent être obtenus en appliquant différentes valeurs normales, et même l'occlusion des paupières, qui peut être contrôlée par un contrôleur séparé, afin que les paupières puissent être contrôlées. Effet .
Pour résumer, les expressions sont créées à l'aide d'une forme de mélange, d'une carte des rides, d'une carte de couleurs et d'un gréement du visage à l'aide de données numérisées par une personne réelle, et un contrôleur est utilisé pour piloter l'expression. Bien sûr, nous savons également qu'il existe de nombreuses autres façons de piloter cette expression. En fait, lorsque nous rendons la peau, les yeux ou les cheveux, c'est relativement facile, mais la conduite d'expression est en réalité un point très difficile.
J'entends souvent les développeurs dire pourquoi l'Unity qu'ils utilisent ne peut pas produire les effets que Unity peut produire ? Parce que les effets des démos présentées par Unity ont été créés par un groupe de personnes avec beaucoup d'efforts, et que les technologies qu'ils ont utilisées n'étaient en fait pas encore disponibles dans la version qu'ils ont produite. Après avoir terminé cette démo et avoir ces technologies, elle le sera progressivement. Combiné dans la prochaine version, il formera à terme une version fonctionnelle que tout le monde pourra utiliser.
4. Quel est le processus de création d'un humain numérique ?
Après avoir terminé "Infidel", l'équipe d'Unity Chine a créé son propre humain numérique, en appliquant la technologie "Infidel", la numérisation 4D et d'autres technologies.
Il s'agit d'un véritable projet, et le processus est en fait exactement le même que celui de "Infidel". Y compris le nettoyage des données, la création de la forme de mélange correspondante, la création de Wrinkle Map, la création de Rig, puis le pilotage de l'expression. Le contrôleur dans ASSETStore utilise Animation Clip et BlendShape pour présenter l'animation de l'expression. Bien sûr, il existe en fait d'autres façons de capturer des visages, comme utiliser Market pour suivre, utiliser ARKit pour suivre et utiliser des données d'image pour piloter.
Lors du développement réel, utilisez l'appareil photo pour capturer des expressions afin de tester les expressions de la tête humaine. Il existe une autre façon d'utiliser les données d'image pour conduire. Une très grande différence est qu'elle a des cheveux longs et flottants. Ces cheveux longs et flottants sont une solution développée par l'équipe Unity China. Ils conviennent à l'URP et au HDRP et conviennent à la fois aux pipelines de rendu généraux et aux pipelines de rendu de haute qualité. cheveux. Le rendu des cheveux est très différent de la méthode traditionnelle du plug-in. Il peut être très lisse et ressembler même à l’effet d’une publicité Head & Shoulders. Les expressions sont en fait pilotées en temps réel via AR cade, et bien sûr AR cade est utilisé pour piloter les expressions.
Unity dispose d'un humain numérique appelé Emma. L'expression de cet humain numérique est entièrement pilotée de manière dynamique par la technologie Ziva Dynamics. La technologie de base consiste en fait à simuler ces groupes musculaires sous le modèle ou sous la peau biologique, qui peut soit simuler le groupe musculaire. mouvement des muscles du corps réel des dinosaures, cette technologie peut également être appliquée, par exemple, à la simulation d'expressions faciales très réalistes d'humains numériques. Traditionnellement, un modèle est une coque vide avec une coque à l'extérieur. Mais dans la technologie de Ziva Dynamics, il existe en réalité de véritables muscles anatomiques sur le dos. Lorsque ces muscles sont déplacés de manière réaliste, l'extérieur de ces peaux peut atteindre un niveau différent ou supérieur. niveau de réalisme que la forme traditionnelle de mélange ou la méthode de liaison osseuse.
En mars de cette année, Unity a publié la dernière bande-annonce humaine numérique de "Enemies" à la GDC. L'expression de cet humain numérique est très, très réelle. Il convient de mentionner que ses cheveux sont un ensemble de technologies de rendu de fourrure que Unity publiera bientôt, un ensemble de cheveux appliqué au pipeline de rendu haute définition HDRP.
Bienvenue sur le site officiel de la MetaCon Metaverse Technology Conference pour en savoir plus sur le métaverse et les humains numériques. Adresse : https://metacon.51cto.com/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

La pièce SUPRA, une crypto-monnaie qui prend en charge un large éventail d'applications décentralisées, a beaucoup attiré l'attention des investisseurs. L'évolution potentielle de ses prix dépend de facteurs tels que la force de l'équipe, la croissance de l'écosystème, les tendances du marché, l'environnement réglementaire et les performances des concurrents. Les experts prédisent que la pièce SUPRA pourrait atteindre 0,60 à 1 dollar en 2025. Les fondements techniques du projet, l’écosystème en pleine croissance et l’optimisme du marché soutiennent l’augmentation des prix.

Le calendrier de la course haussière des pièces SuperVerse dépend des conditions du marché, de l’avancement du projet et de la confiance des investisseurs. Le moment exact ne peut être prédit, mais cela pourrait survenir dans les mois ou les années à venir, à condition que le sentiment du marché soit optimiste, que le paysage concurrentiel soit favorable, que les projets progressent sans problème et que la confiance des investisseurs soit élevée.

Il existe deux aspects de la volatilité à court terme et de la valeur à long terme de l'impact de la mise à niveau d'Ethereum sur le prix de l'ETH. À court terme, les attentes du marché avant la mise à niveau affecteront la hausse des prix et la baisse, les problèmes techniques pendant le processus de mise à niveau peuvent entraîner une chute des prix, et après la mise à niveau, le phénomène de «vente d'attentes et d'achat» peut se produire. À long terme, les améliorations réussies amélioreront les performances du réseau, telles que l'augmentation du débit et la réduction des frais de transaction, et l'optimisation des modèles économiques, tels que la déflation, augmentant ainsi la rareté de l'ETH et les augmentations de prix de soutien.

Investissement en niveaux de gris: le canal des investisseurs institutionnels pour entrer sur le marché des crypto-monnaies. La société a lancé plusieurs fiducies cryptographiques, ce qui a attiré une attention généralisée, mais l'impact de ces fonds sur les prix des jetons varie considérablement. Cet article présentera en détail certains des principaux fonds de fiducie de crypto de Graycale. Grayscale Major Crypto Trust Funds disponibles dans un investissement GrayScale GRAYS (fondée par DigitalCurrencyGroup en 2013) gère une variété de fonds fiduciaires d'actifs cryptographiques, fournissant des investisseurs institutionnels et des particuliers élevés avec des canaux d'investissement conformes. Ses principaux fonds comprennent: ZCash (Zec), Sol,

Cet article interprète de manière exhaustive la mise à niveau majeure d'Ethereum du mécanisme de preuve de travail (POW) au mécanisme de preuve de la preuve (POS). Étant donné que le mécanisme POW a des limites telles qu'une consommation élevée d'énergie et une faible efficacité, et ne peut pas répondre à la demande croissante de l'évolutivité, de la vitesse et de l'efficacité de l'industrie de l'industrie, Ethereum a lancé cette mise à niveau. L'article compare les principes et les avantages et les inconvénients des deux mécanismes POW et POS, élabore les processus de mise à niveau clés tels que "la fusion", la mise à niveau Dencun et le fragment futur, et analysent l'impact de cette mise à niveau sur le modèle économique, l'écosystème, les développeurs, les utilisateurs et les mineurs, et enfin les discussions sur les défis techniques et de supervision relevés au cours du processus de niveau supérieur.

Cet article répertorie les dix premiers échanges dans le cercle des crypto-monnaies en 2025, prédit que Binance, Okx, Bitget et Gate.io deviendront les principaux échanges et analyseront six échanges potentiels, notamment Coinbase, Kraken, Bybit, MEXC, Bitfinex et Kucoin. L'article explore profondément les avantages, les inconvénients et le potentiel de développement futur de chaque échange, et attend avec impatience les quatre principales tendances de développement des échanges de devises en 2025: conformité, croissance des échanges de dérivés, trading social et communautation, et l'intégration du web3 et du méta-université. Enfin, l'article rappelle aux lecteurs de prêter attention à des facteurs tels que la sécurité, la liquidité, les frais de transaction, les produits commerciaux, l'expérience utilisateur, le service client et l'environnement réglementaire lors du choix d'une échange et met l'accent sur le nombre d'investissements.

La transformation de Ethereum 2.0 de POW à POS est un changement majeur dans la blockchain. La transformation provient de la consommation élevée d'énergie de POW et de mauvaises capacités de traitement des transactions, qui ne peuvent pas répondre aux besoins de développement de l'industrie. La "fusion" sera achevée en septembre 2022, et il y aura des plans de mise à niveau ultérieurs tels que Sharding. Le POW et le POS ont des différences évidentes de principe et d'avantages et d'inconvénients. La transformation affecte les modèles économiques et les écosystèmes, et fait également face à des défis aux niveaux de la technologie, de la communauté et de la réglementation, visant à améliorer l'évolutivité, la vitesse de transaction d'Ethereum et l'efficacité énergétique.

AllThingsflower: AI habilite et dirige l'ère numérization 3.0 de l'industrie du vin! AllThingsflower a une fois de plus innové l'industrie et lancé des produits innovants qui intègrent la musique d'IA, les étiquettes de vin numérique Mulberry Purple et NFT, combinant parfaitement la culture et la technologie, réalisant une mise à niveau complète du produit à la production culturelle et en soulignant la direction du développement futur de l'industrie du vin. Chaque étiquette de vin NFT est générée par l'algorithme AI d'Aiva.ai, intégrant parfaitement le parfum moelleux du vin violet de mûrier, l'héritage de la culture routière de soie avec les possibilités infinies de la technologie future. Fabrication de l'IA: la transformation numérique de l'industrie du vin traditionnel est différente des marques de vin traditionnelles.
