


SMPLer-X : Subvertir les sept listes principales, présentant le premier modèle de capture de mouvement humain !
À l'heure actuelle, bien que de grands progrès aient été réalisés dans la recherche sur l'estimation expressive de la pose et de la forme humaine (EHPS, Expressive Human Pose and Shape estimation), les méthodes les plus avancées sont encore limitées par les limites de l'ensemble de données d'entraînement
Récemment , des chercheurs du S-Lab de l'Université technologique de Nanyang, de SenseTime, du Laboratoire d'intelligence artificielle de Shanghai, de l'Université de Tokyo et de l'Institut de recherche IDEA ont proposé pour la première fois le modèle de capture de mouvement à grande échelle SMPLer-X pour les tâches d'estimation de la posture et de la taille du corps humain. L'étude a utilisé jusqu'à 4,5 millions d'instances provenant de différentes sources de données pour entraîner le modèle, obtenant ainsi les meilleures performances sur 7 listes clés.
SMPLer-X peut non seulement capturer les mouvements du corps, mais également générer des visages et des mouvements de main, et estimer les forme du corps
Lien papier : https://arxiv.org/abs/2309.17448
Page d'accueil du projet : https://caizhongang.github.io/projects/ SMPLer-X/
Avec des données riches et des modèles énormes, SMPLer-X a démontré de solides performances dans divers tests et classements, et possède une excellente polyvalence même dans des environnements inconnus
en termes d'expansion des données, les chercheurs ont mené une évaluation et une analyse complètes de 32 3D Ensembles de données sur le corps humain pour fournir une référence pour la formation du modèle
2 En termes de mise à l'échelle du modèle, un grand modèle visuel a été utilisé pour étudier l'impact de l'augmentation du nombre de paramètres du modèle sur l'effet amélioré
3. Le grand modèle général SMPLer-X peut être transformé en un grand modèle dédié grâce à des stratégies de réglage fin, lui permettant d'améliorer encore les performances.
En résumé, SMPLer-X a mené une exploration de la mise à l'échelle des données et de la modélisation (voir Figure 1) et s'est classé sur 32 ensembles de données académiques tout en effectuant sa formation de 4,5 millions d'instances, obtenant les meilleures performances sur 7 listes clés. y compris AGORA, UBody, EgoBody et EHF
Figure 1 L'augmentation de la quantité de données et des paramètres du modèle réduit la liste des clés (AGORA, UBody, EgoBody, 3DPW et EHF) sont tous efficaces en termes d'erreur principale moyenne ( MPE)
Réalisation d'une étude de généralisation sur des ensembles de données 3D existants sur le corps humain
Des chercheurs ont mené une étude de généralisation sur 32 universitaires. Les ensembles de données ont été classés : Pour mesurer les performances de chaque ensemble de données, un modèle a été formé à l'aide de cet ensemble de données. et le modèle a été évalué sur cinq ensembles de données d'évaluation : AGORA, UBody, EgoBody, 3DPW et EHF.
L'erreur primaire moyenne (MPE) est également calculée dans le tableau pour faciliter une comparaison simple entre différents ensembles de données.
Inspiration de l'étude de la généralisation des ensembles de données
En analysant un grand nombre d'ensembles de données (voir Figure 3), les quatre conclusions suivantes peuvent être tirées :
1. le volume de données d'un seul ensemble de données, un ensemble de données de l'ordre de 100 000 instances peut être utilisé pour la formation du modèle afin d'obtenir des performances de coût plus élevées
2 Concernant le scénario de collecte de l'ensemble de données, l'In-the ; -l'ensemble de données sauvages a le meilleur effet. Si les données ne peuvent être collectées qu'à l'intérieur, afin d'améliorer l'effet de l'entraînement, vous devez éviter d'utiliser les données d'une seule scène
Concernant la collecte d'ensembles de données, deux des trois principaux ensembles de données sont des ensembles de données générés. Ces dernières années, les ensembles de données générés ont montré de fortes performances
Concernant l'annotation des ensembles de données, les pseudo-étiquettes jouent également un rôle très important dans la formation
Entraînement et mise au point de grands modèles de capture de mouvement
De nos jours les méthodes les plus avancées n'utilisent généralement que quelques ensembles de données (par exemple, MSCOCO, MPII et Human3.6M) pour la formation, tandis que cet article étudie l'utilisation de plus d'ensembles de données
Considérant que les ensembles de données de rang supérieur sont préférés, nous avons utilisé quatre tailles de données différentes : 5, 10, 20 et 32 ensembles de données comme ensembles d'entraînement, avec une taille totale de 750 000, 1,5 million, 3 millions et 4,5 millions d'instances.
De plus, les chercheurs ont également démontré des stratégies de réglage fin à faible coût pour adapter les grands modèles généraux à des scénarios spécifiques.
Le tableau ci-dessus montre certains des principaux tests, tels que l'ensemble de tests AGORA (Tableau 3), l'ensemble de vérification AGORA (Tableau 4), EHF (Tableau 5), UBody (Tableau 6) , EgoBody-EgoSet (Tableau 7).
En outre, les chercheurs ont également évalué la généralisation du grand modèle de capture de mouvement sur deux ensembles de tests, ARCTIC et DNA-Rendering
Les chercheurs espèrent que SMPLer-X pourra apporter des avantages au-delà de la conception d'algorithmes. Inspirer et fournir le communauté universitaire avec de puissants modèles de capture de mouvement humain sur tout le corps.
Le code et le modèle pré-entraîné ont été open source sur la page d'accueil du projet. Bienvenue sur https://caizhongang.github.io/projects/SMPLer-X/ pour plus de détails
Affichage des résultats
.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Lors de la conversion des chaînes en objets dans vue.js, JSON.Parse () est préféré pour les chaînes JSON standard. Pour les chaînes JSON non standard, la chaîne peut être traitée en utilisant des expressions régulières et réduisez les méthodes en fonction du format ou du codé décodé par URL. Sélectionnez la méthode appropriée en fonction du format de chaîne et faites attention aux problèmes de sécurité et d'encodage pour éviter les bogues.

Vue et Element-UI Boîtes déroulantes en cascade Points de fosse de liaison V-model: V-model lie un tableau représentant les valeurs sélectionnées à chaque niveau de la boîte de sélection en cascade, pas une chaîne; La valeur initiale de SelectOptions doit être un tableau vide, non nul ou non défini; Le chargement dynamique des données nécessite l'utilisation de compétences de programmation asynchrones pour gérer les mises à jour des données en asynchrone; Pour les énormes ensembles de données, les techniques d'optimisation des performances telles que le défilement virtuel et le chargement paresseux doivent être prises en compte.

L'article présente le fonctionnement de la base de données MySQL. Tout d'abord, vous devez installer un client MySQL, tel que MySQLWorkBench ou le client de ligne de commande. 1. Utilisez la commande MySQL-UROot-P pour vous connecter au serveur et connecter avec le mot de passe du compte racine; 2. Utilisez Createdatabase pour créer une base de données et utilisez Sélectionner une base de données; 3. Utilisez CreateTable pour créer une table, définissez des champs et des types de données; 4. Utilisez InsertInto pour insérer des données, remettre en question les données, mettre à jour les données par mise à jour et supprimer les données par Supprimer. Ce n'est qu'en maîtrisant ces étapes, en apprenant à faire face à des problèmes courants et à l'optimisation des performances de la base de données que vous pouvez utiliser efficacement MySQL.

Traiter efficacement 7 millions d'enregistrements et créer des cartes interactives avec la technologie géospatiale. Cet article explore comment traiter efficacement plus de 7 millions d'enregistrements en utilisant Laravel et MySQL et les convertir en visualisations de cartes interactives. Exigences initiales du projet de défi: extraire des informations précieuses en utilisant 7 millions d'enregistrements dans la base de données MySQL. Beaucoup de gens considèrent d'abord les langages de programmation, mais ignorent la base de données elle-même: peut-il répondre aux besoins? La migration des données ou l'ajustement structurel est-il requis? MySQL peut-il résister à une charge de données aussi importante? Analyse préliminaire: les filtres et les propriétés clés doivent être identifiés. Après analyse, il a été constaté que seuls quelques attributs étaient liés à la solution. Nous avons vérifié la faisabilité du filtre et établi certaines restrictions pour optimiser la recherche. Recherche de cartes basée sur la ville

Résumé: Il existe les méthodes suivantes pour convertir les tableaux de chaîne Vue.js en tableaux d'objets: Méthode de base: utilisez la fonction de carte pour convenir à des données formatées régulières. Gameplay avancé: l'utilisation d'expressions régulières peut gérer des formats complexes, mais ils doivent être soigneusement écrits et considérés. Optimisation des performances: Considérant la grande quantité de données, des opérations asynchrones ou des bibliothèques efficaces de traitement des données peuvent être utilisées. MEILLEUR PRATIQUE: Effacer le style de code, utilisez des noms de variables significatifs et des commentaires pour garder le code concis.

Afin de définir le délai d'expiration de Vue Axios, nous pouvons créer une instance AxiOS et spécifier l'option Timeout: dans les paramètres globaux: vue.prototype. $ Axios = axios.create ({timeout: 5000}); Dans une seule demande: ce. $ axios.get ('/ api / utilisateurs', {timeout: 10000}).

Ingénieur backend à distance Emploi Vacant Société: Emplacement du cercle: Bureau à distance Type d'emploi: Salaire à temps plein: 130 000 $ - 140 000 $ Description du poste Participez à la recherche et au développement des applications mobiles Circle et des fonctionnalités publiques liées à l'API couvrant l'intégralité du cycle de vie de développement logiciel. Les principales responsabilités complètent indépendamment les travaux de développement basés sur RubyOnRails et collaborent avec l'équipe frontale React / Redux / Relay. Créez les fonctionnalités de base et les améliorations des applications Web et travaillez en étroite collaboration avec les concepteurs et le leadership tout au long du processus de conception fonctionnelle. Promouvoir les processus de développement positifs et hiérarchiser la vitesse d'itération. Nécessite plus de 6 ans de backend d'applications Web complexe

L'optimisation des performances MySQL doit commencer à partir de trois aspects: configuration d'installation, indexation et optimisation des requêtes, surveillance et réglage. 1. Après l'installation, vous devez ajuster le fichier my.cnf en fonction de la configuration du serveur, tel que le paramètre innodb_buffer_pool_size, et fermer query_cache_size; 2. Créez un index approprié pour éviter les index excessifs et optimiser les instructions de requête, telles que l'utilisation de la commande Explication pour analyser le plan d'exécution; 3. Utilisez le propre outil de surveillance de MySQL (ShowProcessList, Showstatus) pour surveiller la santé de la base de données, et sauvegarde régulièrement et organisez la base de données. Ce n'est qu'en optimisant en continu ces étapes que les performances de la base de données MySQL peuvent être améliorées.
