Au CES 2024, NVIDIA a lancé une série de nouveaux produits, notamment le service NVIDIA ACE, qui permet aux développeurs d'appliquer les modèles d'IA générative les plus avancés aux personnages numériques virtuels dans les jeux et les applications pour offrir de meilleures expériences.
En termes simples, il s'agit d'une plate-forme technologique qui utilise l'IA générative pour créer des humains numériques virtuels et prend en charge l'exécution sur le cloud ou sur un PC local. Les partenaires actuels de NVIDIA ACE incluent Convai, Charisma.AI, Inworld, MiHoYo, NetEase Games, Palm Technology, Tencent Games, Ubisoft et UneeQ, etc.
NVIDIA a déclaré qu'ACE est une API cloud composée de microservices personnalisés basés sur NVIDIA Unified Computing Framework, une plate-forme d'IA full-stack et la technologie NVIDIA RTX. Ces composants incluent des flux de travail d'IA spécifiques à un domaine et des outils low-code qui forment ensemble une suite complète de développement humain numérique.
Les développeurs peuvent exploiter les nouveaux microservices ACE, notamment des modèles d'IA tels que NVIDIA Audio2Face (A2F) et NVIDIA Riva Automatic Speech Recognition (ASR), pour créer des avatars numériques virtuels interactifs. Avec A2F, les sources sonores peuvent créer des animations faciales plus vives, tandis qu'avec ASR, les développeurs peuvent créer des applications vocales et de traduction multilingues personnalisées à utiliser avec des personnages numériques virtuels.
Ce site a également remarqué que NVIDIA a lancé les microservices de reconnaissance vocale automatique Audio2Face et Riva. Ces modèles offrent aux développeurs d'avatars interactifs la possibilité de les intégrer de manière transparente dans le processus de développement.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!