Maison Périphériques technologiques IA Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation d'Apple surpasse tout SOTA en quelques secondes

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation d'Apple surpasse tout SOTA en quelques secondes

Aug 11, 2024 pm 04:02 PM
工程

Depuis la sortie de Sora, le domaine de la génération vidéo IA est devenu plus « occupé ». Au cours des derniers mois, nous avons vu Jimeng, Runway Gen-3, Luma AI et Kuaishou Keling exploser à tour de rôle.

Contrairement aux modèles précédents qui peuvent être identifiés en un coup d'œil comme générés par l'IA, ce lot de grands modèles vidéo est peut-être le "meilleur" que nous ayons jamais vu.

Cependant, derrière les performances étonnantes du modèle vidéo en grand langage (LLM) se cache un ensemble de données vidéo énormes et finement annotées, ce qui nécessite un coût très élevé. Récemment, un certain nombre de méthodes innovantes sont apparues dans le domaine de la recherche qui ne nécessitent pas de formation supplémentaire : utiliser de grands modèles de langage d'images entraînés pour traiter directement les tâches vidéo, contournant ainsi le processus de formation « coûteux ».

De plus, la plupart des LLM vidéo existants souffrent de deux inconvénients majeurs : (1) ils ne peuvent gérer l'entrée vidéo qu'avec un nombre limité d'images, ce qui rend difficile pour le modèle de capturer le contenu spatial et temporel subtil dans la vidéo ; (2) ils manquent de conception de modélisation temporelle, mais entrent simplement des fonctionnalités vidéo dans LLM, en s'appuyant entièrement sur la capacité de LLM à modéliser le mouvement.

En réponse aux problèmes ci-dessus, Les chercheurs d'Apple ont proposé SlowFast-LLaVA (SF-LLaVA en abrégé). Ce modèle est basé sur l'architecture LLaVA-NeXT développée par l'équipe Byte. Il ne nécessite aucun réglage supplémentaire et peut être utilisé immédiatement. Inspirée par le réseau à deux flux réussi dans le domaine de la reconnaissance d'action, l'équipe de recherche a conçu un nouveau mécanisme d'entrée SlowFast pour le LLM vidéo.

En termes simples, SF-LLaVA comprendra les détails et le mouvement de la vidéo grâce à deux vitesses d'observation différentes (lente et rapide).

  • Chemin lent : extraire les fonctionnalités à des fréquences d'images faibles tout en conservant autant de détails spatiaux que possible (par exemple, conserver 24 × 24 jetons toutes les 8 images)
  • Chemin rapide : exécuter à des fréquences d'images élevées, mais utiliser un pas de pooling spatial plus grand pour réduire la résolution de la vidéo afin de simuler un contexte temporel plus large et de se concentrer davantage sur la compréhension de la cohérence des actions

Cela équivaut au modèle ayant deux "yeux" : un Il suffit de regarder lentement et prêter attention aux détails ; l’autre consiste à regarder rapidement et à prêter attention aux mouvements. Cela résout les problèmes de la plupart des LLM vidéo existants et peut capturer à la fois une sémantique spatiale détaillée et un contexte temporel plus long.

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

Lien papier : https://arxiv.org/pdf/2407.15841

Les résultats expérimentaux montrent que SF-LLaVA surpasse les méthodes sans formation existantes par des avantages significatifs dans tous les tests de référence. Comparé aux modèles SFT soigneusement réglés, le SF-LLaVA atteint les mêmes performances, voire mieux.

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

Architecture du modèle

Comme le montre la figure ci-dessous, SF-LLaVA suit le processus LLM vidéo standard sans formation. Il prend une vidéo V et une question Q en entrée et génère la réponse correspondante A.

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

For the input, N frames are uniformly sampled from each video of any size and length, I = {I_1, I_2, ..., I_N}, and no special combination or arrangement of the selected video frames is required. The independently extracted frequency feature in the frame unit is F_v ∈ R^N×H×W, where H and W are the height and width of the frame feature respectively.

The next step involves further processing F_v in both slow and fast paths and combining them as an effective video representation. The slow path uniformly samples the frame features of Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes from F_v, where Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes.

Previous research has found that appropriate pooling in the spatial dimension can improve the efficiency and robustness of video generation. Therefore, the research team applied a pooling process with a step size of σ_h×σ_w on F_v to obtain the final feature: Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes, where Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes, Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes. The entire process of the slow path is shown in Equation 2.

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

The fast path preserves all frame features in F_v to capture as much of the long-range temporal context of the video as possible. Specifically, the research team uses a spatial pooling step size Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes to aggressively downsample F_v to obtain the final feature Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes. The research team set up Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes, Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes so that the fast path can focus on simulating temporal context and motion cues. The entire process of the slow path is shown in Equation 3.

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

Finally, the aggregated video features are obtained: Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes, where flat and [, ] represent flattening and concatenation operations respectively. As the expression shows, Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes does not require any special token to separate slow and fast paths. SF-LLaVA uses a total of Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes video tokens. The visual features of the video Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes will be combined with textual information (such as questions asked by users) and sent as input data to a large language model (LLM) for processing.

SlowFast process is shown in Equation 4.

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

Experimental results

The research team conducted a comprehensive performance evaluation of SF-LLaVA, comparing it with current SOTA training-free models (such as IG-VLM and LLoVi) in multiple video question answering tasks. Furthermore, they compared it with video LLMs such as VideoLLaVA and PLLaVA that were supervised fine-tuned (SFT) on video datasets.

Open Video Question Answering

As shown in the table below, in the open video question answering task, SF-LLaVA performs better than existing training-free methods in all benchmarks. Specifically, when equipped with LLMs of 7B and 34B parameter sizes respectively, SF-LLaVA is 2.1% and 5.0% higher than IGVLM on MSRVTT-QA, 5.7% and 1.5% higher on TGIF-QA, and 5.7% and 1.5% higher on ActivityNet. -2.0% and 0.8% higher on QA.

Even compared to the fine-tuned SFT method, SF-LLaVA shows comparable performance in most benchmarks, only on the ActivityNet-QA benchmark, PLLaVA and LLaVA-NeXT-VideoDPO slightly outperform One chip.

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

Multiple Choice Video Q&A

As can be seen from the table below, SF-LLaVA outperforms other training-free methods in multiple choice video Q&A in all benchmarks. In the EgoSchema dataset, which requires complex long-term reasoning, the SF-LLaVA7B and 34B versions scored 11.4% and 2.2% higher than the IG-VLM model, respectively.

While VideoTree leads in the benchmarks because it is a proprietary model based on GPT-4, the performance is much higher than open source LLM. The SF-LLaVA 34B model also achieves better results on EgoSchema compared to the SFT method, which confirms the power of the SlowFast design in handling long videos.
Text Generation

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

文生视频

As shown in Table 3, for the task of text generation video, SF-LLaVA also shows some advantages. The SF-LLaVA-34B exceeded all training-free benchmarks in overall performance. Although in terms of detail orientation, SF-LLaVA is slightly inferior to LLaVA-NeXT-Image. Based on the SlowFast design, SF-LLaVA can cover longer temporal context with fewer visual tokens, and therefore performs particularly well in temporal understanding tasks.

In addition, SF-LLaVA-34B also outperforms most SFT methods in terms of Vincent video performance.

Ajoutez des yeux rapides et lents au modèle vidéo, la nouvelle méthode sans formation dApple surpasse tout SOTA en quelques secondes

For more details, please refer to the original paper.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1664
14
Tutoriel PHP
1269
29
Tutoriel C#
1249
24
L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours Jul 17, 2024 am 01:56 AM

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Jun 24, 2024 pm 03:04 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. Jul 15, 2024 pm 03:59 PM

Les modèles linguistiques peuvent-ils vraiment être utilisés pour la prédiction de séries chronologiques ? Selon la loi des gros titres de Betteridge (tout titre d'actualité se terminant par un point d'interrogation peut recevoir une réponse « non »), la réponse devrait être non. Le fait semble être vrai : un LLM aussi puissant ne peut pas bien gérer les données de séries chronologiques. Les séries chronologiques, c'est-à-dire les séries chronologiques, comme leur nom l'indique, font référence à un ensemble de séquences de points de données disposées par ordre temporel. L'analyse des séries chronologiques est essentielle dans de nombreux domaines, notamment la prévision de la propagation des maladies, l'analyse du commerce de détail, la santé et la finance. Dans le domaine de l'analyse des séries chronologiques, de nombreux chercheurs ont récemment étudié comment utiliser les grands modèles linguistiques (LLM) pour classer, prédire et détecter les anomalies dans les séries chronologiques. Ces articles supposent que les modèles de langage capables de gérer les dépendances séquentielles dans le texte peuvent également se généraliser aux séries chronologiques.

Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Jul 17, 2024 am 02:46 AM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com. Introduction Ces dernières années, l'application de grands modèles de langage multimodaux (MLLM) dans divers domaines a connu un succès remarquable. Cependant, en tant que modèle de base pour de nombreuses tâches en aval, le MLLM actuel se compose du célèbre réseau Transformer, qui

See all articles