Maison Périphériques technologiques IA Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Feb 01, 2024 pm 05:15 PM
产业 modèle clairsemé Grand modèle de langage visuel

Le modèle de langage visuel à grande échelle (LVLM) peut améliorer les performances en mettant à l'échelle le modèle. Cependant, augmenter la taille des paramètres augmente les coûts de formation et d'inférence car le calcul de chaque jeton active tous les paramètres du modèle.

Des chercheurs de l'Université de Pékin, de l'Université Sun Yat-sen et d'autres institutions ont proposé conjointement une nouvelle stratégie de formation appelée MoE-Tuning pour résoudre le problème de dégradation des performances lié à l'apprentissage multimodal et à la rareté des modèles. MoE-Tuning est capable de construire des modèles clairsemés avec un nombre surprenant de paramètres mais un coût de calcul constant. En outre, les chercheurs ont également proposé une nouvelle architecture LVLM clairsemée basée sur MoE, appelée framework MoE-LLaVA. Dans ce cadre, seuls les k meilleurs experts sont activés via l’algorithme de routage, et les experts restants restent inactifs. De cette manière, le cadre MoE-LLaVA peut utiliser plus efficacement les ressources du réseau d'experts pendant le processus de déploiement. Ces résultats de recherche fournissent de nouvelles solutions pour résoudre les défis de l’apprentissage multimodal et de la rareté des modèles LVLM.

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

  • Adresse papier : https://arxiv.org/abs/2401.15947

  • Adresse du projet : https://github.com/PKU-YuanGroup/MoE-LLaVA

  • Adresse de démonstration : https://huggingface.co/spaces/LanguageBind/MoE-LLaVA

  • Titre de l'article : MoE-LLaVA : Mélange d'experts pour les modèles de langage à grande vision

MoE-LLaVA n'a que 3B de paramètres d'activation clairsemés, de performances Cependant, il est équivalent à LLaVA-1.5-7B sur divers ensembles de données de compréhension visuelle, et surpasse même LLaVA-1.5-13B dans le test de référence sur l'illusion d'objet. Grâce à MoE-LLaVA, cette étude vise à établir une référence pour les LVLM clairsemés et à fournir des informations précieuses pour les recherches futures visant à développer des systèmes d'apprentissage multimodaux plus efficaces et efficients. L’équipe MoE-LLaVA a rendu ouvertes toutes les données, codes et modèles.

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Figure 1 Comparaison du MoE-LLaVA et d'autres LVLM dans la performance des hallucinations

Introduction à la méthode

MoE-LLaVA adopte une stratégie de formation par étapes. Comme le montre la figure 2, le codeur de vision traite l'image d'entrée pour obtenir la séquence de jetons visuels. Une couche de projection est utilisée pour mapper les jetons visuels dans des dimensions acceptables pour le LLM. De même, le texte associé à l'image est projeté à travers une couche d'incorporation de mots pour obtenir le jeton de texte de séquence.

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Phase 1 : Comme le montre la figure 2, l'objectif de la phase 1 est d'adapter le jeton visuel à LLM et de donner à LLM la capacité de comprendre les entités de l'image. MoE-LLaVA utilise un MLP pour projeter des jetons d'image dans le domaine d'entrée de LLM, ce qui signifie que les petits patchs d'image sont traités comme des jetons de pseudo-texte par LLM. À ce stade, LLM est formé pour décrire des images et comprendre la sémantique des images de niveau supérieur. La couche MoE ne sera pas appliquée au LVLM à ce stade.
Figure 3 Cadre de formation et stratégie de formation plus spécifiques

Phase 2 : L'utilisation de données d'instructions multimodales pour affiner est une technologie clé pour améliorer la capacité et la contrôlabilité des grands modèles, et à ce stade LLM LVLM optimisé pour une compréhension multimodale. À ce stade, la recherche ajoute des instructions plus complexes, y compris des tâches avancées telles que le raisonnement logique d’images et la reconnaissance de texte, qui nécessitent que le modèle ait de plus fortes capacités de compréhension multimodale. De manière générale, le LVLM du modèle dense est formé à ce stade. Cependant, l'équipe de recherche a constaté qu'il est difficile de convertir le LLM en LVLM et de disperser le modèle en même temps. Par conséquent, le MoE-LLaVA utilisera les poids de la deuxième étape comme initialisation de la troisième étape pour réduire la difficulté de l'apprentissage de modèles clairsemés.

Phase 3 : MoE-LLaVA copie plusieurs copies de FFN comme poids d'initialisation de l'ensemble expert. Lorsque les jetons visuels et les jetons de texte sont introduits dans la couche MoE, le routeur calculera le poids correspondant de chaque jeton et des experts, puis chaque jeton sera envoyé aux experts les plus correspondants pour traitement, et enfin en fonction du poids du routeur La somme pondérée est agrégée dans la sortie. Lorsque les experts top-k sont activés, les experts restants restent inactifs, et ce modèle constitue le MoE-LLaVA avec une infinité de voies clairsemées possibles.

Expérience

Comme le montre la figure 4, puisque MoE-LLaVA est le premier modèle clairsemé basé sur LVLM équipé d'un routeur logiciel, cette étude résume le modèle précédent comme un modèle dense. L’équipe de recherche a vérifié les performances du MoE-LLaVA sur 5 tests de questions et réponses d’images, et a signalé la quantité de paramètres activés et la résolution de l’image. Par rapport à la méthode SOTA LLaVA-1.5, MoE-LLaVA-2.7B×4 démontre de fortes capacités de compréhension d'images et ses performances sont très proches de LLaVA-1.5 sur 5 benchmarks. Parmi eux, MoE-LLaVA utilise 3,6 milliards de paramètres d'activation clairsemés et dépasse LLaVA-1,5-7B sur SQAI de 1,9 %. Il convient de noter qu’en raison de la structure clairsemée de MoE-LLaVA, seuls 2,6 B de paramètres d’activation sont nécessaires pour dépasser complètement IDEFICS-80B.

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Figure 4 Performances de MoE-LLaVA sur 9 benchmarks

De plus, l'équipe de recherche a également prêté attention au récent petit modèle de langage visuel TinyGPT-V, MoE-LLaVA-1.8B × 4 dépasse TinyGPT-V de 27,5 % et 10 % respectivement dans GQA et VisWiz avec des paramètres d'activation comparables, ce qui marque la puissante capacité de compréhension du MoE-LLaVA en vision naturelle.

Afin de vérifier de manière plus complète les capacités de compréhension multimodale du MoE-LLaVA, cette étude a évalué les performances du modèle sur 4 boîtes à outils de référence. La boîte à outils de référence est une boîte à outils permettant de vérifier si le modèle peut répondre aux questions en langage naturel. Généralement, les réponses sont ouvertes et n'ont pas de modèle fixe. Comme le montre la figure 4, MoE-LLaVA-1,8B × 4 surpasse Qwen-VL, qui utilise une résolution d'image plus grande. Ces résultats montrent que MoE-LLaVA, un modèle clairsemé, peut atteindre des performances comparables, voire supérieures, à celles des modèles denses avec moins de paramètres d'activation.

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Figure 5 Évaluation des performances de MoE-LLaVA sur la détection d'objets hallucinés

Cette étude utilise le pipeline d'évaluation POPE pour vérifier l'hallucination d'objets de MoE-LLaVA. Les résultats sont présentés dans la figure 5. . MoE -LLaVA présente les meilleures performances, ce qui signifie que MoE-LLaVA a tendance à générer des objets cohérents avec l'image donnée. Plus précisément, MoE-LLaVA-1,8B × 4 a surpassé LLaVA avec un paramètre d'activation de 2,2B. De plus, l’équipe de recherche a observé que le rapport oui de MoE-LLaVA est dans un état relativement équilibré, ce qui montre que le modèle clairsemé MoE-LLaVA peut effectuer une rétroaction correcte en fonction du problème.

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Figure 6 Visualisation de la charge experte

La figure 6 montre la charge experte de MoE-LLaVA-2.7B×4-Top2 sur ScienceQA. Dans l’ensemble, lors de l’initialisation de la formation, la charge d’experts dans tous les niveaux du MoE est relativement équilibrée. Cependant, à mesure que le modèle se raréfie progressivement, la charge d'experts sur les couches 17 à 27 augmente soudainement, et couvre même presque tous les jetons. Pour les couches peu profondes 5 à 11, les experts 2, 3 et 4 travaillent principalement ensemble. Il convient de noter qu'Expert 1 fonctionne presque exclusivement sur les couches 1 à 3 et abandonne progressivement le travail à mesure que le modèle s'approfondit. Par conséquent, les experts du MoE-LLaVA ont appris un modèle spécifique qui permet une division experte du travail selon certaines règles.

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Figure 7 Visualisation de la distribution modale

La figure 7 montre la distribution modale de différents experts. L'étude a révélé que la répartition du routage du texte et de l'image est très similaire. Par exemple, lorsque l'expert 3 travaille dur sur les couches 17 à 27, la proportion de texte et d'image qu'il traite est similaire. Cela montre que le MoE-LLaVA n’a pas de préférence évidente en matière de modalité.

L'étude a également observé le comportement des experts au niveau des jetons et a suivi la trajectoire de tous les jetons du réseau clairsemé sur les tâches en aval. Pour toutes les voies activées de texte et d'image, cette étude a utilisé la réduction de dimensionnalité PCA pour obtenir les 10 voies principales, comme le montre la figure 8. L'équipe de recherche a découvert que pour un jeton de texte ou un jeton d'image invisible, le MoE-LLaVA préfère toujours envoyer des experts 2 et 3 pour gérer la profondeur du modèle. Les experts 1 et 4 ont tendance à traiter des jetons initialisés. Ces résultats peuvent nous aider à mieux comprendre le comportement des modèles clairsemés dans l'apprentissage multimodal et à explorer des possibilités inconnues.

Éparpillez le grand modèle multimodal et le modèle 3B MoE-LLaVA est comparable à LLaVA-1.5-7B

Figure 8 Visualisation de la voie d'activation

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Le robot DeepMind joue au tennis de table, et son coup droit et son revers glissent dans les airs, battant complètement les débutants humains Aug 09, 2024 pm 04:01 PM

Mais peut-être qu’il ne pourra pas vaincre le vieil homme dans le parc ? Les Jeux Olympiques de Paris battent leur plein et le tennis de table suscite beaucoup d'intérêt. Dans le même temps, les robots ont également réalisé de nouvelles avancées dans le domaine du tennis de table. DeepMind vient tout juste de proposer le premier agent robot apprenant capable d'atteindre le niveau des joueurs amateurs humains de tennis de table de compétition. Adresse papier : https://arxiv.org/pdf/2408.03906 Quelle est la capacité du robot DeepMind à jouer au tennis de table ? Probablement à égalité avec les joueurs amateurs humains : tant en coup droit qu'en revers : l'adversaire utilise une variété de styles de jeu, et le robot peut également résister : recevoir des services avec des tours différents : Cependant, l'intensité du jeu ne semble pas aussi intense que le vieil homme dans le parc. Pour les robots, le tennis de table

La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison La première griffe mécanique ! Yuanluobao est apparu à la World Robot Conference 2024 et a lancé le premier robot d'échecs pouvant entrer dans la maison Aug 21, 2024 pm 07:33 PM

Le 21 août, la Conférence mondiale sur les robots 2024 s'est tenue en grande pompe à Pékin. La marque de robots domestiques de SenseTime, "Yuanluobot SenseRobot", a dévoilé toute sa famille de produits et a récemment lancé le robot de jeu d'échecs Yuanluobot AI - Chess Professional Edition (ci-après dénommé "Yuanluobot SenseRobot"), devenant ainsi le premier robot d'échecs au monde pour le maison. En tant que troisième produit robot jouant aux échecs de Yuanluobo, le nouveau robot Guoxiang a subi un grand nombre de mises à niveau techniques spéciales et d'innovations en matière d'IA et de machines d'ingénierie. Pour la première fois, il a réalisé la capacité de ramasser des pièces d'échecs en trois dimensions. grâce à des griffes mécaniques sur un robot domestique et effectuer des fonctions homme-machine telles que jouer aux échecs, tout le monde joue aux échecs, réviser la notation, etc.

Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Claude aussi est devenu paresseux ! Internaute : apprenez à vous accorder des vacances Sep 02, 2024 pm 01:56 PM

La rentrée scolaire est sur le point de commencer, et ce ne sont pas seulement les étudiants qui sont sur le point de commencer le nouveau semestre qui doivent prendre soin d’eux-mêmes, mais aussi les grands modèles d’IA. Il y a quelque temps, Reddit était rempli d'internautes se plaignant de la paresse de Claude. « Son niveau a beaucoup baissé, il fait souvent des pauses et même la sortie devient très courte. Au cours de la première semaine de sortie, il pouvait traduire un document complet de 4 pages à la fois, mais maintenant il ne peut même plus produire une demi-page. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dans un post intitulé "Totalement déçu par Claude", plein de

Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Lors de la World Robot Conference, ce robot domestique porteur de « l'espoir des futurs soins aux personnes âgées » a été entouré Aug 22, 2024 pm 10:35 PM

Lors de la World Robot Conference qui se tient à Pékin, l'exposition de robots humanoïdes est devenue le centre absolu de la scène. Sur le stand Stardust Intelligent, l'assistant robot IA S1 a réalisé trois performances majeures de dulcimer, d'arts martiaux et de calligraphie. un espace d'exposition, capable à la fois d'arts littéraires et martiaux, a attiré un grand nombre de publics professionnels et de médias. Le jeu élégant sur les cordes élastiques permet au S1 de démontrer un fonctionnement fin et un contrôle absolu avec vitesse, force et précision. CCTV News a réalisé un reportage spécial sur l'apprentissage par imitation et le contrôle intelligent derrière "Calligraphy". Le fondateur de la société, Lai Jie, a expliqué que derrière les mouvements soyeux, le côté matériel recherche le meilleur contrôle de la force et les indicateurs corporels les plus humains (vitesse, charge). etc.), mais du côté de l'IA, les données réelles de mouvement des personnes sont collectées, permettant au robot de devenir plus fort lorsqu'il rencontre une situation forte et d'apprendre à évoluer rapidement. Et agile

Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Annonce des prix ACL 2024 : l'un des meilleurs articles sur le déchiffrement Oracle par HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Les contributeurs ont beaucoup gagné de cette conférence ACL. L'ACL2024, d'une durée de six jours, se tient à Bangkok, en Thaïlande. ACL est la plus grande conférence internationale dans le domaine de la linguistique informatique et du traitement du langage naturel. Elle est organisée par l'Association internationale pour la linguistique informatique et a lieu chaque année. L'ACL s'est toujours classée première en termes d'influence académique dans le domaine de la PNL, et c'est également une conférence recommandée par le CCF-A. La conférence ACL de cette année est la 62e et a reçu plus de 400 travaux de pointe dans le domaine de la PNL. Hier après-midi, la conférence a annoncé le meilleur article et d'autres récompenses. Cette fois, il y a 7 Best Paper Awards (deux inédits), 1 Best Theme Paper Award et 35 Outstanding Paper Awards. La conférence a également décerné 3 Resource Paper Awards (ResourceAward) et Social Impact Award (

L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o L'équipe de Li Feifei a proposé ReKep pour donner aux robots une intelligence spatiale et intégrer GPT-4o Sep 03, 2024 pm 05:18 PM

Intégration profonde de la vision et de l'apprentissage des robots. Lorsque deux mains de robot travaillent ensemble en douceur pour plier des vêtements, verser du thé et emballer des chaussures, associées au robot humanoïde 1X NEO qui a fait la une des journaux récemment, vous pouvez avoir le sentiment : nous semblons entrer dans l'ère des robots. En fait, ces mouvements soyeux sont le produit d’une technologie robotique avancée + d’une conception de cadre exquise + de grands modèles multimodaux. Nous savons que les robots utiles nécessitent souvent des interactions complexes et exquises avec l’environnement, et que l’environnement peut être représenté comme des contraintes dans les domaines spatial et temporel. Par exemple, si vous souhaitez qu'un robot verse du thé, le robot doit d'abord saisir la poignée de la théière et la maintenir verticalement sans renverser le thé, puis la déplacer doucement jusqu'à ce que l'embouchure de la théière soit alignée avec l'embouchure de la tasse. , puis inclinez la théière selon un certain angle. ce

Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Aug 08, 2024 am 07:02 AM

Cet après-midi, Hongmeng Zhixing a officiellement accueilli de nouvelles marques et de nouvelles voitures. Le 6 août, Huawei a organisé la conférence de lancement de nouveaux produits Hongmeng Smart Xingxing S9 et Huawei, réunissant la berline phare intelligente panoramique Xiangjie S9, le nouveau M7Pro et Huawei novaFlip, MatePad Pro 12,2 pouces, le nouveau MatePad Air, Huawei Bisheng With de nombreux nouveaux produits intelligents tous scénarios, notamment la série d'imprimantes laser X1, FreeBuds6i, WATCHFIT3 et l'écran intelligent S5Pro, des voyages intelligents, du bureau intelligent aux vêtements intelligents, Huawei continue de construire un écosystème intelligent complet pour offrir aux consommateurs une expérience intelligente du Internet de tout. Hongmeng Zhixing : Autonomisation approfondie pour promouvoir la modernisation de l'industrie automobile intelligente Huawei s'associe à ses partenaires de l'industrie automobile chinoise pour fournir

Testé 7 artefacts de génération vidéo « de niveau Sora ». Qui a la capacité de monter sur le « Trône de fer » ? Testé 7 artefacts de génération vidéo « de niveau Sora ». Qui a la capacité de monter sur le « Trône de fer » ? Aug 05, 2024 pm 07:19 PM

Editeur du Machine Power Report : Yang Wen Qui peut devenir le roi du cercle vidéo de l'IA ? Dans la série télévisée américaine "Game of Thrones", il y a un "Trône de Fer". La légende raconte qu'il a été fabriqué par le dragon géant « Black Death » qui a fait fondre des milliers d'épées abandonnées par les ennemis, symbolisant l'autorité suprême. Pour s'asseoir sur cette chaise de fer, les grandes familles ont commencé à se battre et à se battre. Depuis l'émergence de Sora, un vigoureux "Game of Thrones" a été lancé dans le cercle vidéo de l'IA. Les principaux acteurs de ce jeu incluent RunwayGen-3 et Luma de l'autre côté de l'océan, ainsi que Kuaishou Keling, ByteDream, national. et Zhimo. Spectre Qingying, Vidu, PixVerseV2, etc. Aujourd'hui, nous allons évaluer et voir qui est qualifié pour siéger sur le « Trône de fer » du cercle vidéo IA. -1-Vincent Vidéo

See all articles