Cet article est reproduit à partir de Lei Feng.com Si vous devez le réimprimer, veuillez vous rendre sur le site officiel de Lei Feng.com pour demander une autorisation.
L'IA générative est très populaire ces derniers temps, et il existe tellement de nouveaux modèles de génération d'images pré-entraînés que c'est vertigineux à voir. Qu'il s'agisse de portraits, de paysages, de dessins animés, d'éléments du style d'un artiste spécifique, etc., chaque modèle a quelque chose qu'il sait générer.
Avec autant de modèles, comment trouver rapidement le meilleur modèle qui puisse satisfaire vos envies créatives ?
Récemment, Zhu Junyan, professeur adjoint à l'Université Carnegie Mellon, et d'autres ont proposé pour la première fois l'algorithme de recherche de modèles basé sur le contenu 🎜🎜 #, permettant Vous pouvez rechercher le modèle de génération d'image de profondeur le plus correspondant en un seul clic.
Adresse papier : https://arxiv.org/pdf/2210.03116.pdf#🎜 🎜#
Sur Modelverse, une plateforme de partage et de recherche de modèles en ligne développée par l'équipe sur la base de cet ensemble d'algorithmes de recherche de modèles, vous pouvezsaisir du texte, images, croquis et étant donné un modèle, recherche le modèle associé le plus correspondant ou similaire.
Adresse de la plateforme Modelverse : https://modelverse.cs.cmu.edu/#🎜 🎜#
Légende : saisissez du texte (comme "Animaux d'Afrique"), une image (comme un paysage), un croquis (comme un chat debout) croquis) ou un modèle donné, affichez les modèles associés les mieux classés (deuxième et troisième lignes)Par exemple, saisissez le texte "visage", le résultat est le suivant :
Entrez une image de chat :
# 🎜🎜 #
Saisissez un croquis d'un cheval :
#🎜 🎜#1
Recherche de modèles basée sur le contenu
Déterminer si un modèle peut générer une image spécifique est un problème informatiquement difficile, et de nombreux problèmes génératifs profonds modèles Il ne fournit pas une méthode efficace pour estimer la densité et ne prend pas non plus en charge l’évaluation de la similarité intermodale. La méthode de Monte Carlo basée sur l'échantillonnage rendra le processus de recherche de modèle très lent.
À cette fin, l'équipe de Zhu Junyan a proposé un nouveau système de recherche de modèles.
Chaque modèle génératif produit une distribution d'images, les auteurs abordent donc le problème de recherche comme une optimisation pour maximiser le nombre d'images générées qui correspondent à la requête étant donné la probabilité du modèle. Comme le montre la figure ci-dessous, le système se compose d'une étape de pré-mise en cache (a, b) et d'une étape d'inférence (c).
Légende : Aperçu des méthodes de recherche de modèles
#🎜🎜 #Étant donné un ensemble de modèles, (a) générez d'abord 50 000 échantillons pour chaque modèle ; (b) codez ensuite les images en caractéristiques d'image et calculez les statistiques de caractéristiques de premier et de deuxième ordre pour chacun ; modèle . Les statistiques sont mises en cache dans le système pour améliorer l'efficacité ; (c) pendant la phase d'inférence, des requêtes de différentes modalités sont prises en charge, notamment des images, des croquis, des descriptions textuelles, un autre modèle génératif ou une combinaison de ces types de requêtes. Les auteurs introduisent ici une approximation dans laquelle la requête est codée sous forme de vecteur de caractéristiques et le modèle avec la meilleure mesure de similarité est récupéré en évaluant la similarité entre les caractéristiques de la requête et les statistiques de chaque modèle. L'auteur évalue l'algorithme sur 133 modèles génératifs profonds (dont GAN, modèle de diffusion et modèle autorégressif) réalisés en ablation analyse expérimentale. Par rapport à la ligne de base de Monte Carlo, cette méthode permet d'obtenir une recherche plus efficace, avec une vitesse améliorée de 5 fois en 0,08 milliseconde, tout en maintenant haute précision . En comparant les résultats de récupération des modèles, nous pouvons également avoir une idée approximative des modèles qui peuvent générer des images de meilleure qualité pour différentes entrées de requête. Par exemple, la figure ci-dessous montre la comparaison des résultats de récupération du modèle. Illustration : Exemple de résultats de récupération de modèle#🎜🎜 # La ligne supérieure est une requête d'image, la saisie de natures mortes, la récupération de modèles de styles artistiques associés et l'obtention du modèle StyleGAN2 classé en premier et du modèle GAN assisté par vision classé en dernier. La rangée du milieu est une requête d'esquisse, saisissez des croquis de chevaux et d'églises et obtenez des modèles tels que ADM et ProGAN. La ligne du bas est une requête textuelle. Saisissez « personne portant des lunettes » et « oiseau qui parle » pour récupérer respectivement le modèle GANSketch et le modèle GAN auto-distillé les mieux classés. L'auteur a également constaté que Il existe des différences dans les performances des modèles dans différents espaces de fonctionnalités réseau. Comme le montre la figure ci-dessous, lors de la saisie de requêtes d'images, les résultats montrent que les trois réseaux CLIP, DINO et Inception ont tous des performances similaires ; lors de la saisie de requêtes d'esquisse, CLIP fonctionne nettement mieux, contrairement à DINO et Inception. Trop adaptés à une requête donnée, ils fonctionnent mieux sur les modèles de style artistique. Remarque : Comparaison de la récupération de modèles basée sur des images et des croquis dans différents espaces de fonctionnalités du réseau# 🎜 🎜# Par exemple, une requête multimodale peut aider à affiner la recherche de modèle Lorsqu'il n'y a que des images de "Nicolas Cage", seul le modèle du visage peut être récupéré mais ; lors de l'utilisation des deux Lorsque « Nicolas Cage » et « chien » sont utilisés comme entrée, le modèle StyleGAN-NADA qui peut générer l'image « Nicolas Cage chien » peut être récupéré. (Comme indiqué ci-dessous)
Remarque : Requête utilisateur multimodale #🎜 🎜#Lorsque l'entrée est un modèle de visage, davantage de modèles de génération de visage peuvent être récupérés et les catégories restent similaires. (Comme indiqué ci-dessous)
Remarque : requête de modèle similaire À partir d'une image de requête d'un visage réel, l'utilisation d'un modèle de rang supérieur entraîne une reconstruction d'image plus précise. La figure ci-dessous est un exemple de mappage inverse d'images d'images CelebA-HQ et LSUN Church à l'aide de différents modèles de classement.
Légende : Projetez l'image réelle sur le modèle StyleGAN2 récupéré. Dans la tâche d'édition d'images réelles, les performances des différents modèles varient également. Dans la figure ci-dessous, le modèle le mieux classé dans l'algorithme de récupération de modèle basé sur l'image est utilisé pour cartographier inversement l'image réelle, puis modifié à l'aide de GANspace pour transformer le visage renfrogné de l'image Ukiyoe en un visage souriant.
Légende : Image réelle éditée Cette étude La faisabilité La recherche de modèles a fait ses preuves, mais il reste encore beaucoup d'espace de recherche pour la recherche de modèles générés à partir de texte, d'audio ou d'autres contenus. Mais à l'heure actuelle, la méthode proposée dans ce travail présente encore certaines limites. Par exemple, lors de l'interrogation d'un croquis spécifique, parfois un modèle d'une forme abstraite sera mis en correspondance ; et parfois lors de l'exécution d'une requête multimodale, un seul modèle peut être récupéré, et le système peut avoir des difficultés à traiter des images comme un chien + "les grandes requêtes multimodales comme". (Comme indiqué ci-dessous) Remarque : Cas d'échec # 🎜🎜# De plus, sur sa plateforme de recherche de modèles, la liste de modèles récupérée n'est pas automatiquement triée en fonction de son effet, comme la résolution, la fidélité, le degré de correspondance de l'image générée, etc. et le classement des différents modèles facilitera la recherche des utilisateurs et les aidera à mieux comprendre les avantages et les inconvénients des modèles actuellement générés. Nous attendons avec impatience les travaux de suivi dans ce domaine.
2 Effet de recherche de modèle
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!