Maison Périphériques technologiques IA Le cadre d'évaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution

Le cadre d'évaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution

Aug 21, 2024 pm 04:38 PM
工程 Université technologique de Nanyang

Le cadre dévaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution

La rubrique AIxiv est une rubrique où des contenus académiques et techniques sont publiés sur ce site. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com

Avec l'approfondissement de la recherche sur les grands modèles, la manière de les promouvoir vers davantage de modalités est devenue un sujet brûlant dans le monde universitaire et l'industrie. Les grands modèles à source fermée récemment publiés, tels que GPT-4o et Claude 3.5, possèdent déjà de solides capacités de compréhension d'images, et les modèles de terrain open source tels que LLaVA-NeXT, MiniCPM et InternVL ont également montré des performances qui se rapprochent de celles des sources fermées. .

À l'ère des « 80 000 kilogrammes par mu » et « un SoTA tous les 10 jours », un cadre d'évaluation multimodal facile à utiliser, doté de normes transparentes et reproductible est devenu de plus en plus important, et ce n'est pas facile.

Afin de résoudre les problèmes ci-dessus, des chercheurs du LMMs-Lab de l'Université technologique de Nanyang ont conjointement open source LMMs-Eval, qui est un cadre d'évaluation spécialement conçu pour les modèles multimodaux à grande échelle et fournit une évaluation des modèles multimodaux (LMM ). Une solution unique et efficace.

Le cadre dévaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution

  • Référentiel de codes : https://github.com/EvolvingLMMs-Lab/lmms-eval

  • Page d'accueil officielle : https://lmms-lab.github.io/

  • Adresse papier : https://arxiv.org/abs/2407.12772

  • Adresse de la liste : https://huggingface.co/spaces/lmms-lab/LiveBench

Depuis sa sortie en mars 2024, LMMs-Eval Le framework a reçu des contributions collaboratives de la communauté open source, des entreprises et des universités. Il a désormais reçu 1,1K étoiles sur Github, avec plus de 30+ contributeurs, dont un total de plus de 80 ensembles de données et plus de 10 modèles, et il continue d'augmenter.

Le cadre dévaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution

Cadre d'évaluation standardisé

Afin de fournir une plateforme d'évaluation standardisée, LMMs-Eval comprend les fonctionnalités suivantes :

  1. Interface unifiée : LMMs-Eval est basé sur le cadre d'évaluation de texte lm-evaluation- exploiter Il a été amélioré et étendu pour permettre aux utilisateurs d'ajouter de nouveaux modèles et ensembles de données multimodaux en définissant une interface unifiée pour les modèles, les ensembles de données et les indicateurs d'évaluation.

  2. Lancement en un clic : LMMs-Eval héberge plus de 80 (et un nombre croissant) d'ensembles de données sur HuggingFace, soigneusement transformés à partir des sources d'origine, y compris toutes les variantes, versions et divisions. Les utilisateurs n'ont pas besoin de faire de préparation. Avec une seule commande, plusieurs ensembles de données et modèles seront automatiquement téléchargés et testés, et les résultats seront disponibles en quelques minutes.

  3. Transparent et reproductible : LMMs-Eval dispose d'un outil de journalisation unifié intégré. Chaque question répondue par le modèle et si elle est correcte ou non sera enregistrée, garantissant la reproductibilité et la transparence. Cela facilite également la comparaison des avantages et des inconvénients des différents modèles.

La vision de LMMs-Eval est que les futurs modèles multimodaux n'ont plus besoin d'écrire leur propre code de traitement des données, d'inférence et de soumission. Dans l'environnement actuel où les ensembles de tests multimodaux sont très concentrés, cette approche est irréaliste et les scores mesurés sont difficiles à comparer directement avec d'autres modèles. En accédant à LMMs-Eval, les formateurs de modèles peuvent se concentrer davantage sur l'amélioration et l'optimisation du modèle lui-même, plutôt que de consacrer du temps aux résultats d'évaluation et d'alignement.

Le « Triangle impossible » de l'évaluation

Le but ultime de LMMs-Eval est de trouver une méthode 1. large couverture 2. faible coût 3. zéro fuite de données pour évaluer les LMM. Cependant, même avec LMMs-Eval, l’équipe d’auteurs a trouvé difficile, voire impossible, de réaliser les trois en même temps.

Comme le montre la figure ci-dessous, lorsqu'ils ont étendu l'ensemble de données d'évaluation à plus de 50, il est devenu très long d'effectuer une évaluation complète de ces ensembles de données. De plus, ces benchmarks sont également susceptibles d’être contaminés lors de la formation. À cette fin, LMMs-Eval a proposé LMMs-Eval-Lite pour prendre en compte une large couverture et un faible coût. Ils ont également conçu LiveBench pour qu'il soit peu coûteux et sans fuite de données.

Le cadre dévaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution

LMMs-Eval-Lite : évaluation légère à large couverture

Le cadre dévaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution

Lors de l'évaluation de grands modèles, le grand nombre de paramètres et de tâches de test augmentent souvent considérablement le temps et le coût de la tâche d'évaluation, de sorte que tout le monde choisit souvent d'utiliser des modèles plus petits. Ensemble de données ou utiliser un ensemble de données spécifique pour l’évaluation. Cependant, une évaluation limitée conduit souvent à un manque de compréhension des capacités du modèle. Afin de prendre en compte à la fois la diversité des évaluations et le coût de l'évaluation, LMMs-Eval a lancé LMMs-Eval-Lite

#. 🎜🎜 #Le cadre dévaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution
LMMs-Eval-Lite vise à construire un ensemble de références simplifié pour fournir des signaux utiles et rapides lors du développement du modèle, évitant ainsi le problème de ballonnement des tests d'aujourd'hui. Si nous pouvons trouver un sous-ensemble de l'ensemble de tests existant sur lequel les scores absolus et les classements relatifs entre les modèles restent similaires à l'ensemble complet, nous pouvons alors considérer qu'il est prudent d'élaguer ces ensembles de données.

Afin de trouver les points saillants des données dans l'ensemble de données, LMMs-Eval utilise d'abord les modèles CLIP et BGE pour convertir l'ensemble de données d'évaluation multimodale sous forme d'intégration vectorielle et utilise le k- méthode de clustering gourmande pour trouver des points significatifs dans les données. Lors des tests, ces ensembles de données plus petits ont néanmoins démontré des capacités d'évaluation similaires à celles de l'ensemble complet.

Le cadre dévaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution
Ensuite, LMMs-Eval a utilisé la même méthode pour créer une version Lite couvrant davantage d'ensembles de données, conçues pour aider les gens à économiser de l'argent dans le développement. coût afin de juger rapidement des performances du modèle Les benchmarks traditionnels se concentrent sur une évaluation statique utilisant des questions et réponses fixes. Avec les progrès de la recherche multimodale, les modèles open source sont souvent meilleurs que les modèles commerciaux, tels que GPT-4V, en termes de comparaison des scores, mais ils sont à la traîne en termes d'expérience utilisateur réelle. Les Chatbots Arenas et WildVision dynamiques et dirigés par l'utilisateur sont de plus en plus populaires pour l'évaluation de modèles, mais ils nécessitent la collecte de milliers de préférences d'utilisateur et sont extrêmement coûteux à évaluer.

L'idée principale de LiveBench est d'évaluer les performances du modèle sur un ensemble de données continuellement mis à jour pour atteindre zéro contamination et maintenir les coûts à un niveau bas. L'équipe d'auteurs a collecté des données d'évaluation sur le Web et a construit un pipeline pour collecter automatiquement les dernières informations mondiales à partir de sites Web tels que des forums d'actualités et communautaires. Pour garantir l'actualité et l'authenticité des informations, l'équipe d'auteurs a sélectionné des sources provenant de plus de 60 médias, dont CNN, la BBC, l'Asahi Shimbun du Japon et l'agence de presse chinoise Xinhua, ainsi que des forums tels que Reddit. Les étapes spécifiques sont les suivantes :
Le cadre dévaluation de modèles multimodaux lmms-eval est disponible ! Couverture complète, faible coût, zéro pollution

Capturez une capture d'écran de la page d'accueil et supprimez les publicités et les éléments non liés aux actualités.

Concevez des ensembles de questions et réponses en utilisant les modèles multimodaux les plus puissants actuellement disponibles, tels que GPT4-V, Claude-3-Opus et Gemini-1.5-Pro. Questions examinées et révisées par un autre modèle pour garantir l’exactitude et la pertinence.

    L'ensemble final de questions-réponses est examiné manuellement, environ 500 questions sont collectées chaque mois et 100 à 300 sont conservées comme ensemble final de questions du livebench.
  1. En utilisant les critères de notation de LLaVA-Wilder et Vibe-Eval -- le modèle de notation obtient des scores basés sur les réponses standard fournies, et la plage de scores est [1, 10 ]. Le modèle de notation par défaut est GPT-4o, Claude-3-Opus et Gemini 1.5 Pro étant également inclus comme alternatives. Les résultats finaux rapportés seront basés sur des scores convertis en une mesure de précision allant de 0 à 100.
  2. À l'avenir, vous pourrez également consulter les modèles multimodaux dans notre liste mise à jour dynamiquement, qui sera mis à jour dynamiquement chaque mois Les dernières données d'évaluation, ainsi que les résultats de la dernière évaluation de la liste.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1670
14
Tutoriel PHP
1274
29
Tutoriel C#
1256
24
L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours Jul 17, 2024 am 01:56 AM

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Jun 24, 2024 pm 03:04 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. Jul 15, 2024 pm 03:59 PM

Les modèles linguistiques peuvent-ils vraiment être utilisés pour la prédiction de séries chronologiques ? Selon la loi des gros titres de Betteridge (tout titre d'actualité se terminant par un point d'interrogation peut recevoir une réponse « non »), la réponse devrait être non. Le fait semble être vrai : un LLM aussi puissant ne peut pas bien gérer les données de séries chronologiques. Les séries chronologiques, c'est-à-dire les séries chronologiques, comme leur nom l'indique, font référence à un ensemble de séquences de points de données disposées par ordre temporel. L'analyse des séries chronologiques est essentielle dans de nombreux domaines, notamment la prévision de la propagation des maladies, l'analyse du commerce de détail, la santé et la finance. Dans le domaine de l'analyse des séries chronologiques, de nombreux chercheurs ont récemment étudié comment utiliser les grands modèles linguistiques (LLM) pour classer, prédire et détecter les anomalies dans les séries chronologiques. Ces articles supposent que les modèles de langage capables de gérer les dépendances séquentielles dans le texte peuvent également se généraliser aux séries chronologiques.

Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Jul 17, 2024 am 02:46 AM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com. Introduction Ces dernières années, l'application de grands modèles de langage multimodaux (MLLM) dans divers domaines a connu un succès remarquable. Cependant, en tant que modèle de base pour de nombreuses tâches en aval, le MLLM actuel se compose du célèbre réseau Transformer, qui

See all articles