Maison Périphériques technologiques IA Bytedance Doubao et l'Université de Wuhan ont proposé CAL : améliorer les effets d'alignement multimodal grâce à des jetons visuellement liés

Bytedance Doubao et l'Université de Wuhan ont proposé CAL : améliorer les effets d'alignement multimodal grâce à des jetons visuellement liés

Jun 19, 2024 am 09:53 AM
工程 字节跳动 Modèle de pouf

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果
La rubrique AIxiv est une rubrique où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. E-mail de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com

Le modèle de langage visuel (VLM) grand public actuel est principalement basé sur le grand modèle de langage (LLM) pour un réglage plus précis. Par conséquent, il est nécessaire de mapper l'image à l'espace d'intégration de LLM de différentes manières, puis d'utiliser des méthodes autorégressives pour prédire la réponse en fonction du jeton d'image.

Dans ce processus, l'alignement modal est implicitement implémenté via des jetons de texte Comment bien aligner cette étape est très critique.

En réponse à ce problème, des chercheurs de l'Université de Wuhan, de l'équipe de grands modèles ByteDance Beanbao et de l'Université de l'Académie chinoise des sciences ont proposé une méthode de filtrage des jetons de texte (CAL) basée sur l'apprentissage contrastif pour filtrer les jetons de texte qui sont fortement liés à l'image, le poids de la fonction de perte est augmenté pour obtenir un alignement multimodal plus précis.

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果

  • Lien papier : https://arxiv.org/pdf/2405.17871
  • Lien code : https://github.com/foundation-multimodal-models/CAL

CAL présente les points forts suivants :

  • peut être directement intégré dans le processus de formation sans étape de pré-formation supplémentaire.
  • a obtenu des améliorations significatives dans les tests d'OCR et de légende. À partir de la visualisation, on peut constater que CAL améliore l'alignement modal de l'image.
  • CAL rend le processus de formation plus résistant aux données bruyantes.

Motivation pour la recherche

Actuellement, le modèle de langage visuel repose sur l'alignement des modalités de l'image, et la manière de procéder à l'alignement est très critique. La méthode courante actuelle consiste à effectuer un alignement implicite par autorégression de texte, mais la contribution de chaque jeton de texte à l'alignement de l'image est incohérente. Il est très nécessaire de distinguer ces jetons de texte.

CAL a proposé que dans les données de formation du modèle de langage visuel (VLM) existant, les jetons de texte puissent être divisés en trois catégories :

  • Texte hautement lié aux images : tels que les entités ( Tels que personnes, animaux, objets), quantité, couleur, texte, etc. Ces jetons correspondent directement aux informations de l'image et sont cruciaux pour l'alignement multimodal.
  • Texte avec une faible corrélation avec l'image : Comme les mots suivants ou le contenu qui peut être déduit du texte précédent. Ces jetons sont en fait principalement utilisés pour entraîner les capacités de texte brut de VLM.
  • Texte qui contredit le contenu de l'image : ces jetons ne sont pas cohérents avec les informations de l'image et peuvent même fournir des informations trompeuses, affectant négativement le processus d'alignement multimodal.

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果标 Figure 1 : La marque verte est liée au jeton lié à un niveau élevé, le rouge est le contraire au contenu et l'incolore est le jeton neutre

Pendant le processus de formation, ces deux derniers types de Les jetons occupent en réalité une plus grande proportion, mais comme ils ne dépendent pas fortement de l’image, ils ont peu d’effet sur l’alignement modal de l’image. Par conséquent, afin d’obtenir un meilleur alignement, il est nécessaire d’augmenter le poids du premier type de jetons de texte, c’est-à-dire ceux qui sont fortement liés à l’image. Comment trouver cette partie du jeton est devenu la clé pour résoudre ce problème.

Méthode

Trouver des jetons hautement liés à l'image Ce problème peut être résolu par condition contrastive.
Pour chaque paire image-texte dans les données de formation, en l'absence d'entrée d'image, le logit sur chaque jeton de texte représente l'estimation de LLM de l'occurrence de cette situation en fonction du contexte et de la valeur des connaissances existantes.
  • Si vous ajoutez une entrée d'image devant, cela équivaut à fournir des informations contextuelles supplémentaires. Dans ce cas, le logit de chaque jeton de texte sera ajusté en fonction de la nouvelle situation. Les changements logit dans ces deux cas représentent l'impact du nouvel état de l'image sur chaque jeton de texte.
  • Plus précisément, pendant le processus de formation, CAL saisit respectivement les séquences d'images et de texte et les séquences de texte individuelles dans le grand modèle de langage (LLM) pour obtenir le logit de chaque jeton de texte. En calculant la différence logit entre les deux cas, on peut mesurer l’impact de l’image sur chaque token. Plus la différence logit est grande, plus l'impact de l'image sur le jeton est grand, donc le jeton est plus pertinent par rapport à l'image. La figure ci-dessous montre l'organigramme des méthodes logit diff et CAL pour les jetons de texte.对 Figure 2 : L'image de gauche est la visualisation du diff logit du jeton dans les deux situations. L'image de droite est la visualisation du processus de la méthode CAL

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果Cal in Llava Une vérification expérimentale a été effectuée sur deux. modèles grand public : MGM et MGM, et des améliorations de performances ont été obtenues dans des modèles de différentes tailles.
Contient les quatre parties de vérification suivantes :

(1) Les modèles utilisant CAL fonctionnent mieux sur divers indicateurs de référence.


(2) Créez un lot de données de bruit (inadéquation image-texte) en échangeant de manière aléatoire le texte dans les deux paires image-texte en proportion, et utilisez-le pour la formation du modèle CAL. rend le processus de formation a des performances anti-bruit de données plus fortes.度 Figure 3 : Dans le cas d'un entraînement au bruit à différentes intensités, les performances du CAL et la ligne de base

(3) calcule les scores d'attention du jeton d'image dans la partie réponse du cas QA, et le trace sur l'image originale, le modèle formé par CAL a une carte de répartition de l'attention plus claire.

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果

C Figure 4 : La ligne de base et la carte d'attention de CAL peuvent être visualisées. Le côté droit de chaque paire est CAL
(4) du jeton de texte au jeton de texte dans son vocabulaire LLM le plus similaire. l'image originale, le contenu de mappage de modèle formé par CAL est plus proche du contenu de l'image.

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果                                                                                                                                                                                                                                          
ByteDance Beanbag L'équipe modèle a été créée en 2023 et s'engage à développer la technologie de grands modèles d'IA la plus avancée de l'industrie, à devenir une équipe de recherche de classe mondiale et à contribuer au développement technologique et social.

L'équipe Doubao Big Model a une vision et une détermination à long terme dans le domaine de l'IA. Ses axes de recherche couvrent la PNL, le CV, la parole, etc., et elle dispose de laboratoires et de postes de recherche en Chine, Singapour, les États-Unis et d’autres endroits. S'appuyant sur les données, les ressources informatiques et autres de la plate-forme, l'équipe continue d'investir dans des domaines connexes. Elle a lancé un grand modèle général auto-développé pour fournir des capacités multimodales en aval, prenant en charge plus de 50 entreprises telles que Doubao, Buttons, et Jimeng, et est ouvert au public via les clients Volcano Engine. À l'heure actuelle, Doubao APP est devenue l'application AIGC avec le plus grand nombre d'utilisateurs sur le marché chinois. Bienvenue dans l'équipe modèle ByteDance Beanbao.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
Nordhold: Système de fusion, expliqué
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1671
14
Tutoriel PHP
1276
29
Tutoriel C#
1256
24
L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours Jul 17, 2024 am 01:56 AM

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Jun 24, 2024 pm 03:04 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. Jul 15, 2024 pm 03:59 PM

Les modèles linguistiques peuvent-ils vraiment être utilisés pour la prédiction de séries chronologiques ? Selon la loi des gros titres de Betteridge (tout titre d'actualité se terminant par un point d'interrogation peut recevoir une réponse « non »), la réponse devrait être non. Le fait semble être vrai : un LLM aussi puissant ne peut pas bien gérer les données de séries chronologiques. Les séries chronologiques, c'est-à-dire les séries chronologiques, comme leur nom l'indique, font référence à un ensemble de séquences de points de données disposées par ordre temporel. L'analyse des séries chronologiques est essentielle dans de nombreux domaines, notamment la prévision de la propagation des maladies, l'analyse du commerce de détail, la santé et la finance. Dans le domaine de l'analyse des séries chronologiques, de nombreux chercheurs ont récemment étudié comment utiliser les grands modèles linguistiques (LLM) pour classer, prédire et détecter les anomalies dans les séries chronologiques. Ces articles supposent que les modèles de langage capables de gérer les dépendances séquentielles dans le texte peuvent également se généraliser aux séries chronologiques.

Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Jul 17, 2024 am 02:46 AM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com. Introduction Ces dernières années, l'application de grands modèles de langage multimodaux (MLLM) dans divers domaines a connu un succès remarquable. Cependant, en tant que modèle de base pour de nombreuses tâches en aval, le MLLM actuel se compose du célèbre réseau Transformer, qui

See all articles