Maison Périphériques technologiques IA Nouveau travail de l'équipe d'Andrew Ng : apprentissage contextuel multimodal et multi-échantillons, s'adaptant rapidement à de nouvelles tâches sans réglage fin.

Nouveau travail de l'équipe d'Andrew Ng : apprentissage contextuel multimodal et multi-échantillons, s'adaptant rapidement à de nouvelles tâches sans réglage fin.

Jun 19, 2024 pm 08:58 PM
入门 apprentissage contextuel ManyICL

Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.
La rubrique AIxiv est une rubrique où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com

Cette étude évalue l'apprentissage contextuel multi-échantillons d'un modèle de base multimodal avancé sur 10 ensembles de données, révélant des améliorations durables des performances. Les requêtes par lots réduisent considérablement la latence par exemple et le coût d'inférence sans sacrifier les performances. Ces résultats montrent que : L'exploitation d'un large éventail d'exemples de démonstration permet une adaptation rapide à de nouvelles tâches et de nouveaux domaines sans ajustement traditionnel.

Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.

  • Adresse papier : https://arxiv.org/abs/2405.09798
  • Adresse code : https://github.com/stanfordmlgroup/ManyICL

Retour introduction au sol

Dans des recherches récentes sur le modèle de base multimodal, l'apprentissage en contexte (ICL) s'est avéré être l'une des méthodes efficaces pour améliorer les performances du modèle.

Cependant, limitées par la longueur du contexte du modèle de base, en particulier pour les modèles de base multimodaux qui nécessitent un grand nombre de jetons visuels pour représenter les images, les recherches connexes existantes se limitent uniquement à fournir un petit nombre d'échantillons dans le contexte.

Fait intéressant, les progrès technologiques récents ont considérablement augmenté la longueur du contexte des modèles, ce qui ouvre la possibilité d'explorer l'apprentissage contextuel à l'aide de davantage d'exemples.

Sur cette base, la dernière recherche de l'équipe de Stanford Ng - ManyICL, évalue principalement le modèle de base multimodal de pointe actuel dans l'apprentissage contextuel de quelques échantillons (moins de 100) à plusieurs échantillons (jusqu'à 2000) Performances en . En testant des ensembles de données provenant de plusieurs domaines et tâches, l'équipe a vérifié l'effet significatif de l'apprentissage contextuel multi-échantillons sur l'amélioration des performances du modèle et a exploré l'impact des requêtes par lots sur les performances, les coûts et la latence.
Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.
                                            Comparaison de l'ICL à plusieurs tirs et de l'ICL à échantillon nul et à quelques échantillons.

Aperçu de la méthode

Trois modèles de base multimodaux avancés ont été sélectionnés pour cette étude : GPT-4o, GPT4 (V)-Turbo et Gemini 1.5 Pro. En raison des performances supérieures de GPT-4o, l'équipe de recherche se concentre sur GPT-4o et Gemini 1.5 Pro dans le texte principal. Veuillez consulter le contenu pertinent de GPT4 (V)-Turbo en annexe.

En termes d'ensembles de données, l'équipe de recherche a mené des expériences sur 10 ensembles de données couvrant différents domaines (y compris l'imagerie naturelle, l'imagerie médicale, l'imagerie de télédétection et l'imagerie moléculaire, etc.) et des tâches (y compris la classification multi-étiquettes, la classification multi-étiquettes). et classification à grain fin) Expérimentation approfondie.

Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.

                                                                                                                                                                                                                                                                     Résumé de l'ensemble de données de référence.

Pour tester l'impact de l'augmentation du nombre d'exemples sur les performances du modèle, l'équipe de recherche a progressivement augmenté le nombre d'exemples fournis dans le contexte, jusqu'à près de 2 000 exemples. Dans le même temps, compte tenu du coût élevé et de la latence élevée de l’apprentissage multi-échantillons, l’équipe de recherche a également exploré l’impact du traitement par lots des requêtes. Ici, la requête par lots fait référence au traitement de plusieurs requêtes en un seul appel API.

Résultats expérimentaux

Évaluation des performances d'apprentissage contextuel multi-échantillons

 : L'apprentissage contextuel multi-échantillons avec près de 2000 exemples surpasse tous les ensembles de données s Apprentissage en quelques étapes . Les performances du modèle Gemini 1.5 Pro montrent une amélioration log-linéaire constante à mesure que le nombre d'exemples augmente, tandis que les performances de GPT-4o sont moins stables.

Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.

Efficacité des données : L'étude a mesuré l'efficacité des données d'apprentissage contextuelle du modèle, c'est-à-dire la rapidité avec laquelle le modèle apprend à partir d'exemples. Les résultats montrent que Gemini 1.5 Pro présente une efficacité d'apprentissage des données contextuelles plus élevée que GPT-4o sur la plupart des ensembles de données, ce qui signifie qu'il peut apprendre plus efficacement à partir d'exemples. "Impact des requêtes par lots" Il convient de noter que dans le scénario zéro-shot, une seule requête fonctionne mal sur de nombreux ensembles de données. En revanche, les requêtes par lots peuvent même améliorer les performances.

Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.

Amélioration des performances dans un scénario sans échantillon : pour certains ensembles de données (tels que UCMerced), la requête par lots améliore considérablement les performances dans un scénario sans échantillon. L'équipe de recherche a analysé que cela est principalement dû à l'étalonnage de domaine, à l'étalonnage de classe et à l'auto-apprentissage (auto-ICL).

Analyse des coûts et de la latence

Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.

Apprentissage contextuel multi-échantillons Bien qu'un contexte d'entrée plus long doive être traité pendant l'inférence, la latence et le coût d'inférence de chaque exemple peuvent être considérablement réduits par des requêtes par lots. Par exemple, sur l'ensemble de données HAM10000, en utilisant le modèle Gemini 1.5 Pro pour une requête par lots de 350 exemples, la latence est passée de 17,3 secondes à 0,54 seconde et le coût est passé de 0,842 USD à 0,0877 USD par exemple.

Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.Conclusion

Les résultats de la recherche montrent que l'apprentissage contextuel multi-échantillons peut améliorer considérablement les performances des modèles de base multimodaux, en particulier le modèle Gemini 1.5 Pro montre une amélioration continue des performances sur plusieurs ensembles de données, lui permettant de s'adapter plus efficacement à de nouvelles tâches et domaines sans avoir besoin d'un réglage fin traditionnel.

Deuxièmement, le traitement par lots des requêtes peut réduire le coût d'inférence et la latence tout en obtenant des performances de modèle similaires, voire meilleures, montrant un grand potentiel dans les applications pratiques. Nouveau travail de léquipe dAndrew Ng : apprentissage contextuel multimodal et multi-échantillons, sadaptant rapidement à de nouvelles tâches sans réglage fin.

De manière générale, ces recherches de l’équipe d’Andrew Ng ouvrent une nouvelle voie pour l’application de modèles de base multimodaux, notamment en termes d’adaptation rapide à de nouvelles tâches et domaines.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1667
14
Tutoriel PHP
1273
29
Tutoriel C#
1255
24
Générez du PPT en un seul clic ! Kimi : Que les « travailleurs migrants PPT » deviennent d'abord populaires Générez du PPT en un seul clic ! Kimi : Que les « travailleurs migrants PPT » deviennent d'abord populaires Aug 01, 2024 pm 03:28 PM

Kimi : En une seule phrase, un PPT est prêt en seulement dix secondes. PPT est tellement ennuyeux ! Pour tenir une réunion, vous devez avoir un PPT ; pour rédiger un rapport hebdomadaire, vous devez avoir un PPT ; pour solliciter des investissements, vous devez présenter un PPT ; même pour accuser quelqu'un de tricherie, vous devez envoyer un PPT ; L'université ressemble plus à une spécialisation PPT. Vous regardez le PPT en classe et faites le PPT après les cours. Peut-être que lorsque Dennis Austin a inventé le PPT il y a 37 ans, il ne s'attendait pas à ce qu'un jour le PPT devienne aussi répandu. Parler de notre dure expérience de création de PPT nous fait monter les larmes aux yeux. "Il m'a fallu trois mois pour réaliser un PPT de plus de 20 pages, et je l'ai révisé des dizaines de fois. J'avais envie de vomir quand j'ai vu le PPT." "À mon apogée, je faisais cinq PPT par jour, et même ma respiration." était PPT." Si vous avez une réunion impromptue, vous devriez le faire

Un didacticiel sur le modèle de diffusion qui vaut votre temps, de l'Université Purdue Un didacticiel sur le modèle de diffusion qui vaut votre temps, de l'Université Purdue Apr 07, 2024 am 09:01 AM

La diffusion permet non seulement de mieux imiter, mais aussi de « créer ». Le modèle de diffusion (DiffusionModel) est un modèle de génération d'images. Par rapport aux algorithmes bien connus tels que GAN et VAE dans le domaine de l’IA, le modèle de diffusion adopte une approche différente. Son idée principale est un processus consistant à ajouter d’abord du bruit à l’image, puis à la débruiter progressivement. Comment débruiter et restaurer l’image originale est la partie centrale de l’algorithme. L'algorithme final est capable de générer une image à partir d'une image bruitée aléatoirement. Ces dernières années, la croissance phénoménale de l’IA générative a permis de nombreuses applications passionnantes dans la génération de texte en image, la génération de vidéos, et bien plus encore. Le principe de base de ces outils génératifs est le concept de diffusion, un mécanisme d'échantillonnage spécial qui surmonte les limites des méthodes précédentes.

Tous les prix CVPR 2024 annoncés ! Près de 10 000 personnes ont assisté à la conférence hors ligne et un chercheur chinois de Google a remporté le prix du meilleur article. Tous les prix CVPR 2024 annoncés ! Près de 10 000 personnes ont assisté à la conférence hors ligne et un chercheur chinois de Google a remporté le prix du meilleur article. Jun 20, 2024 pm 05:43 PM

Tôt le matin du 20 juin, heure de Pékin, CVPR2024, la plus grande conférence internationale sur la vision par ordinateur qui s'est tenue à Seattle, a officiellement annoncé le meilleur article et d'autres récompenses. Cette année, un total de 10 articles ont remporté des prix, dont 2 meilleurs articles et 2 meilleurs articles étudiants. De plus, il y a eu 2 nominations pour les meilleurs articles et 4 nominations pour les meilleurs articles étudiants. La conférence la plus importante dans le domaine de la vision par ordinateur (CV) est la CVPR, qui attire chaque année un grand nombre d'instituts de recherche et d'universités. Selon les statistiques, un total de 11 532 articles ont été soumis cette année, dont 2 719 ont été acceptés, avec un taux d'acceptation de 23,6 %. Selon l'analyse statistique des données CVPR2024 du Georgia Institute of Technology, du point de vue des sujets de recherche, le plus grand nombre d'articles est la synthèse et la génération d'images et de vidéos (Imageandvideosyn

Du bare metal au grand modèle avec 70 milliards de paramètres, voici un tutoriel et des scripts prêts à l'emploi Du bare metal au grand modèle avec 70 milliards de paramètres, voici un tutoriel et des scripts prêts à l'emploi Jul 24, 2024 pm 08:13 PM

Nous savons que le LLM est formé sur des clusters informatiques à grande échelle utilisant des données massives. Ce site a présenté de nombreuses méthodes et technologies utilisées pour aider et améliorer le processus de formation LLM. Aujourd'hui, ce que nous souhaitons partager est un article qui approfondit la technologie sous-jacente et présente comment transformer un ensemble de « bare metals » sans même un système d'exploitation en un cluster informatique pour la formation LLM. Cet article provient d'Imbue, une startup d'IA qui s'efforce d'atteindre une intelligence générale en comprenant comment les machines pensent. Bien sûr, transformer un tas de « bare metal » sans système d'exploitation en un cluster informatique pour la formation LLM n'est pas un processus facile, plein d'exploration et d'essais et d'erreurs, mais Imbue a finalement réussi à former un LLM avec 70 milliards de paramètres et dans. le processus s'accumule

Guide d'installation de PyCharm Community Edition : maîtrisez rapidement toutes les étapes Guide d'installation de PyCharm Community Edition : maîtrisez rapidement toutes les étapes Jan 27, 2024 am 09:10 AM

Démarrage rapide avec PyCharm Community Edition : Tutoriel d'installation détaillé Analyse complète Introduction : PyCharm est un puissant environnement de développement intégré (IDE) Python qui fournit un ensemble complet d'outils pour aider les développeurs à écrire du code Python plus efficacement. Cet article présentera en détail comment installer PyCharm Community Edition et fournira des exemples de code spécifiques pour aider les débutants à démarrer rapidement. Étape 1 : Téléchargez et installez PyCharm Community Edition Pour utiliser PyCharm, vous devez d'abord le télécharger depuis son site officiel

L'IA utilisée | L'IA a créé un vlog sur la vie d'une fille vivant seule, qui a reçu des dizaines de milliers de likes en 3 jours L'IA utilisée | L'IA a créé un vlog sur la vie d'une fille vivant seule, qui a reçu des dizaines de milliers de likes en 3 jours Aug 07, 2024 pm 10:53 PM

Rédacteur du Machine Power Report : Yang Wen La vague d’intelligence artificielle représentée par les grands modèles et l’AIGC a discrètement changé notre façon de vivre et de travailler, mais la plupart des gens ne savent toujours pas comment l’utiliser. C'est pourquoi nous avons lancé la rubrique « AI in Use » pour présenter en détail comment utiliser l'IA à travers des cas d'utilisation de l'intelligence artificielle intuitifs, intéressants et concis et stimuler la réflexion de chacun. Nous invitons également les lecteurs à soumettre des cas d'utilisation innovants et pratiques. Lien vidéo : https://mp.weixin.qq.com/s/2hX_i7li3RqdE4u016yGhQ Récemment, le vlog de la vie d'une fille vivant seule est devenu populaire sur Xiaohongshu. Une animation de style illustration, associée à quelques mots de guérison, peut être facilement récupérée en quelques jours seulement.

A lire absolument pour les débutants en technique : Analyse des niveaux de difficulté du langage C et Python A lire absolument pour les débutants en technique : Analyse des niveaux de difficulté du langage C et Python Mar 22, 2024 am 10:21 AM

Titre : Une lecture incontournable pour les débutants en technique : Analyse des difficultés du langage C et de Python, nécessitant des exemples de code spécifiques. À l'ère numérique d'aujourd'hui, la technologie de programmation est devenue une capacité de plus en plus importante. Que vous souhaitiez travailler dans des domaines tels que le développement de logiciels, l'analyse de données, l'intelligence artificielle ou simplement apprendre la programmation par intérêt, choisir un langage de programmation adapté est la première étape. Parmi les nombreux langages de programmation, le langage C et Python sont deux langages de programmation largement utilisés, chacun ayant ses propres caractéristiques. Cet article analysera les niveaux de difficulté du langage C et Python

Compte à rebours des 12 points faibles de RAG, l'architecte senior de NVIDIA enseigne les solutions Compte à rebours des 12 points faibles de RAG, l'architecte senior de NVIDIA enseigne les solutions Jul 11, 2024 pm 01:53 PM

La génération augmentée par récupération (RAG) est une technique qui utilise la récupération pour améliorer les modèles de langage. Plus précisément, avant qu'un modèle de langage ne génère une réponse, il récupère les informations pertinentes à partir d'une vaste base de données de documents, puis utilise ces informations pour guider le processus de génération. Cette technologie peut considérablement améliorer l'exactitude et la pertinence du contenu, atténuer efficacement le problème des hallucinations, augmenter la vitesse de mise à jour des connaissances et améliorer la traçabilité de la génération de contenu. RAG est sans aucun doute l’un des domaines de recherche les plus passionnants en matière d’intelligence artificielle. Pour plus de détails sur RAG, veuillez vous référer à l'article de la rubrique de ce site "Quelles sont les nouveautés de RAG, spécialisée dans le rattrapage des défauts des grands modèles ?" Cette revue l'explique clairement. Mais RAG n'est pas parfait et les utilisateurs rencontrent souvent des « problèmes » lorsqu'ils l'utilisent. Récemment, la solution avancée d'IA générative de NVIDIA

See all articles