


Sans formation en aval, Tip-Adapter améliore considérablement la précision de la classification des images CLIP
- Lien papier : https://arxiv.org/pdf/2207.09519.pdf
- Lien code : https://github.com/gaopengcuhk/Tip-Adapter
Un. Contexte de recherche
Le modèle de pré-entraînement au langage d'image contrasté (CLIP) a récemment démontré de solides capacités de transfert de domaine visuel et peut effectuer une reconnaissance d'image sans prise de vue sur un nouvel ensemble de données en aval. Afin d'améliorer encore les performances de migration de CLIP, les méthodes existantes utilisent des paramètres à faible consommation, tels que CoOp et CLIP-Adapter, qui fournissent une petite quantité de données de formation pour les ensembles de données en aval, permettant à CLIP de mieux prendre des décisions pour différents scénarios visuels. . Ajustement. Cependant, cette étape de formation supplémentaire entraînera une surcharge considérable en termes de temps et d'espace, ce qui affecte dans une certaine mesure la capacité inhérente de transfert rapide de connaissances du CLIP. Par conséquent, nous proposons Tip-Adapter, une méthode de classification d'images en quelques prises de vue qui ne nécessite pas de formation supplémentaire en aval et peut grandement améliorer la précision de CLIP. Sur cette base, nous avons proposé une solution capable d'atteindre des performances de pointe avec seulement quelques réglages fins : Tip-Adapter-F, obtenant le meilleur compromis entre efficacité et performances. Comme le montre le tableau 1 ci-dessous, Tip-Adapter ne nécessite aucun temps de formation, ce qui peut améliorer CLIP dans l'ensemble de données ImageNet de +1,7 % de précision (précision), tandis que Tip-Adapter-F ne nécessite qu'un dixième du temps de formation. de la solution précédente (Epoques, Temps), les meilleures performances de classification existantes peuvent être obtenues.
Tableau 1 : Comparaison de la précision de la classification d'images de 16 prises de vue et du temps de formation de différents schémas sur l'ensemble de données ImageNet
II. Méthode de recherche
1.Tip-Adapter
La structure globale du réseau de Tip-Adapter est illustrée dans la figure 1 ci-dessous pour un ensemble de données et d'étiquettes de formation donnés, nous utilisons CLIP pour créer un cache de solution sans formation. Modèle, qui stocke les connaissances de classification à partir des données de formation en aval ; pendant les tests, Tip-Adapter obtient des résultats de classification finaux plus solides en ajoutant linéairement les prédictions du modèle de cache et les prédictions du CLIP d'origine.
En détail, nous utilisons l'encodeur visuel pré-entraîné CLIP (Visual Encoder) pour extraire les caractéristiques de toutes les images de l'ensemble d'entraînement en quelques plans en tant que clés du modèle de cache et convertir les étiquettes d'image correspondantes en une seule - ; forme d'encodage à chaud, en tant que valeurs du modèle de cache. Cette méthode de construction de modèle de cache de valeurs-clés ne nécessite aucune surcharge de formation car elle utilise l'encodeur visuel pré-entraîné et étant donné que l'ensemble de formation de quelques prises de vue ne contient qu'un petit nombre d'images pour chaque catégorie (1 à 16 prises de vue) ; le modèle de cache ne nécessite également presque aucune surcharge de mémoire vidéo supplémentaire. Reportez-vous aux indicateurs GPU Mem dans le tableau 1.
Pour une image de test, nous utiliserons d'abord l'encodeur visuel de CLIP pour obtenir ses fonctionnalités, puis traiterons les fonctionnalités comme une requête pour effectuer une récupération de connaissances sur les données de quelques plans en aval dans le modèle de cache. Étant donné que les clés sont également extraites par l'encodeur visuel de CLIP, elles ont la même origine que la requête de fonctionnalité de l'image de test. Nous pouvons calculer directement la similarité cosinus entre elles pour obtenir une matrice de contiguïté clé-requête. Cette matrice peut être considérée comme chacune des pondérations correspondantes. à la valeur. Par conséquent, nous pouvons calculer la somme pondérée des valeurs pour obtenir la prédiction de classification pour cette image de test obtenue en récupérant le modèle de cache. De plus, nous pouvons également obtenir la prédiction zéro-shot de CLIP en faisant correspondre les fonctionnalités de l'image de test avec les fonctionnalités de texte de Textual Encoder de CLIP. En pondérant linéairement la somme des deux, nous obtenons la prédiction de classification finale, qui contient à la fois les connaissances contrastées du langage d'image pré-entraînées par CLIP et la connaissance de quelques plans du nouvel ensemble de données en aval, afin de pouvoir obtenir des prédictions plus précises. Forte précision de classification des images.
Sur la base de la structure réseau de Tip-Adapter, nous pouvons transformer davantage la partie clés du modèle de cache en paramètres d'apprentissage, qui peuvent être mis à jour via la formation. Cette solution est Tip-Adapter-F. Avec l'aide du modèle de cache déjà construit, Tip-Adapter-F ne nécessite qu'un dixième des cycles de formation et du temps de l'adaptateur CLIP existant pour atteindre des performances plus élevées, comme le montre le tableau 1.
Figure 1 : Organigramme réseau de Tip-Adapter et Tip-Adapter-F
2 Différences et connexions entre Tip-Adapter et les solutions existantes
Comparaison CLIP-Adapter. , comme le montre la figure 2, les clés et les valeurs stockées dans Tip-Adapter peuvent en fait correspondre aux deux couches linéaires de la structure de l'adaptateur dans CLIP-Adapter, mais la première ne nécessite pas de formation pour être construite et la seconde est aléatoire. initialisé. Ensuite, une formation est nécessaire pour apprendre les paramètres optimaux.
Figure 2 : Tip-Adapter comparé à CLIP-Adapter
Comparé à d'autres solutions existantes pour créer un modèle de cache, comme le montre la figure 3, le modèle de cache de Tip-Adapter peut être vu Cache est un langage visuel multimodal. Parce que les fonctionnalités produites par l'encodeur textuel de CLIP peuvent être considérées comme la valeur-clé du texte, ce qui équivaut à tester les fonctionnalités de l'image en tant que requête, récupérant les connaissances dans le cache visuel et textuel respectivement par rapport à la solution existante qui ne contient que le cache. Visual Cache, Tip-Adapter peut utiliser des connaissances multimodales pour obtenir de meilleures performances de reconnaissance.
Figure 3 : Tip-Adapter comparé à d'autres solutions pour créer un modèle de cache
Trois. Résultats expérimentaux
1. Précision de la classification dans ImageNet
La figure 4 et le tableau 2 comparent la précision de la classification des images Tip-Adapter, Tip-Adapter-F et 16 prises de vue ; 3 compare la précision de Visual Encoder en utilisant différents CLIP sur l'ensemble de données ImageNet de 16 prises de vue. On peut constater que nos deux solutions atteignent d’excellentes performances avec très peu de ressources.
Figure 4 et Tableau 2 : Comparaison de la précision de la classification d'images de 1 à 16 prises de vue de différentes méthodes sur l'ensemble de données ImageNet
5:16 - shot Comparaison de la précision de la classification d'images de Visual Encoder avec différents CLIP sur ImageNet
2 Dans 10 autres ensembles de données de classification d'images
Comme le montre la figure 5, nous fournissons la précision de 10 autres ensembles de données de classification d'images. les résultats sont StandfordCars, UCF101, Caltech101, Flowers102, SUN397, DTD, EuroSAT, FGVCAircraft, OxfordPets et Food101. Comme le montre la figure, nos Tip-Adapter-F ont tous atteint la plus grande précision de reconnaissance.
Figure 5 : Comparaison de la précision de la classification d'images de 1 à 16 prises de vue de différentes méthodes sur 10 autres ensembles de données
3. Évaluation de la capacité de généralisation de domaine
Nous avons également testé les performances de Tip-Adapter et Tip-Adapter-F en généralisation de domaine. Comme le montre le tableau 6, nos deux systèmes présentent une forte robustesse et de fortes capacités de transfert de fonctionnalités.
Quatre. Conclusion
Cet article propose Tip-Adapter, une solution sans formation pour l'utilisation de CLIP pour la classification d'images en quelques prises de vue en aval. Tip-Adapter construit un modèle de cache clé-valeur en tant que base de données de récupération de connaissances pour la requête d'image de test et obtient de meilleures performances de reconnaissance en fusionnant les prédictions du modèle de cache et les prédictions zéro-shot de CLIP. Nous espérons que Tip-Adapter pourra inspirer davantage de travaux de suivi sur la migration efficace des modèles pré-entraînés.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

0. À quoi sert cet article ? Nous proposons DepthFM : un modèle d'estimation de profondeur monoculaire génératif de pointe, polyvalent et rapide. En plus des tâches traditionnelles d'estimation de la profondeur, DepthFM démontre également des capacités de pointe dans les tâches en aval telles que l'inpainting en profondeur. DepthFM est efficace et peut synthétiser des cartes de profondeur en quelques étapes d'inférence. Lisons ce travail ensemble ~ 1. Titre des informations sur l'article : DepthFM : FastMonocularDepthEstimationwithFlowMatching Auteur : MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Les réseaux actuels de détection des contours profonds adoptent généralement une architecture d'encodeur-décodeur, qui contient des modules d'échantillonnage ascendant et descendant pour mieux extraire les fonctionnalités à plusieurs niveaux. Cependant, cette structure limite le réseau à produire des résultats de détection de contour précis et détaillés. En réponse à ce problème, un article sur AAAI2024 propose une nouvelle solution. Titre de la thèse : DiffusionEdge : DiffusionProbabilisticModelforCrispEdgeDetection Auteurs : Ye Yunfan (Université nationale de technologie de la défense), Xu Kai (Université nationale de technologie de la défense), Huang Yuxing (Université nationale de technologie de la défense), Yi Renjiao (Université nationale de technologie de la défense), Cai Zhiping (Université nationale de technologie de la défense) Lien vers l'article : https ://ar

À temps pour la Fête du Printemps, la version 1.5 du modèle Tongyi Qianwen (Qwen) est en ligne. Ce matin, la nouvelle de la nouvelle version a attiré l'attention de la communauté IA. La nouvelle version du grand modèle comprend six tailles de modèle : 0,5B, 1,8B, 4B, 7B, 14B et 72B. Parmi eux, les performances de la version la plus puissante surpassent GPT3.5 et Mistral-Medium. Cette version inclut le modèle de base et le modèle Chat et fournit une prise en charge multilingue. L'équipe Tongyi Qianwen d'Alibaba a déclaré que la technologie pertinente avait également été lancée sur le site officiel de Tongyi Qianwen et sur l'application Tongyi Qianwen. De plus, la version actuelle de Qwen 1.5 présente également les points forts suivants : prend en charge une longueur de contexte de 32 Ko ; ouvre le point de contrôle du modèle Base+Chat ;

Les grands modèles de langage (LLM) comportent généralement des milliards de paramètres et sont formés sur des milliards de jetons. Cependant, ces modèles sont très coûteux à former et à déployer. Afin de réduire les besoins de calcul, diverses techniques de compression de modèles sont souvent utilisées. Ces techniques de compression de modèles peuvent généralement être divisées en quatre catégories : distillation, décomposition tensorielle (y compris la factorisation de bas rang), élagage et quantification. Les méthodes d'élagage existent depuis un certain temps, mais beaucoup nécessitent un réglage fin de la récupération (RFT) après l'élagage pour maintenir les performances, ce qui rend l'ensemble du processus coûteux et difficile à faire évoluer. Des chercheurs de l'ETH Zurich et de Microsoft ont proposé une solution à ce problème appelée SliceGPT. L'idée principale de cette méthode est de réduire l'intégration du réseau en supprimant des lignes et des colonnes dans la matrice de pondération.

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

Quoi? Zootopie est-elle concrétisée par l’IA domestique ? Avec la vidéo est exposé un nouveau modèle de génération vidéo domestique à grande échelle appelé « Keling ». Sora utilise une voie technique similaire et combine un certain nombre d'innovations technologiques auto-développées pour produire des vidéos qui comportent non seulement des mouvements larges et raisonnables, mais qui simulent également les caractéristiques du monde physique et possèdent de fortes capacités de combinaison conceptuelle et d'imagination. Selon les données, Keling prend en charge la génération de vidéos ultra-longues allant jusqu'à 2 minutes à 30 ips, avec des résolutions allant jusqu'à 1080p, et prend en charge plusieurs formats d'image. Un autre point important est que Keling n'est pas une démo ou une démonstration de résultats vidéo publiée par le laboratoire, mais une application au niveau produit lancée par Kuaishou, un acteur leader dans le domaine de la vidéo courte. De plus, l'objectif principal est d'être pragmatique, de ne pas faire de chèques en blanc et de se mettre en ligne dès sa sortie. Le grand modèle de Ke Ling est déjà sorti à Kuaiying.

Je pleure à mort. Le monde construit à la folie de grands modèles. Les données sur Internet ne suffisent pas du tout. Le modèle de formation ressemble à « The Hunger Games », et les chercheurs en IA du monde entier se demandent comment nourrir ces personnes avides de données. Ce problème est particulièrement important dans les tâches multimodales. À une époque où rien ne pouvait être fait, une équipe de start-up du département de l'Université Renmin de Chine a utilisé son propre nouveau modèle pour devenir la première en Chine à faire de « l'auto-alimentation des données générées par le modèle » une réalité. De plus, il s’agit d’une approche à deux volets, du côté compréhension et du côté génération, les deux côtés peuvent générer de nouvelles données multimodales de haute qualité et fournir un retour de données au modèle lui-même. Qu'est-ce qu'un modèle ? Awaker 1.0, un grand modèle multimodal qui vient d'apparaître sur le Forum Zhongguancun. Qui est l'équipe ? Moteur Sophon. Fondé par Gao Yizhao, doctorant à la Hillhouse School of Artificial Intelligence de l’Université Renmin.

En avril de l'année dernière, des chercheurs de l'Université du Wisconsin-Madison, de Microsoft Research et de l'Université de Columbia ont publié conjointement LLaVA (Large Language and Vision Assistant). Bien que LLaVA ne soit entraîné qu'avec un petit ensemble de données d'instructions multimodales, il montre des résultats d'inférence très similaires à ceux de GPT-4 sur certains échantillons. Puis, en octobre, ils ont lancé LLaVA-1.5, qui a actualisé le SOTA en 11 tests avec de simples modifications par rapport au LLaVA original. Les résultats de cette mise à niveau sont très intéressants, apportant de nouvelles avancées dans le domaine des assistants IA multimodaux. L'équipe de recherche a annoncé le lancement de la version LLaVA-1.6, ciblant le raisonnement, l'OCR et
