


Petite échelle, haute efficacité : DeepMind lance la solution multimodale Mirasol 3B
L'un des principaux défis de l'apprentissage multimodal est la nécessité de fusionner des modalités hétérogènes telles que le texte, l'audio et la vidéo. Les modèles multimodaux doivent combiner des signaux provenant de différentes sources. Cependant, ces modalités présentent des caractéristiques différentes et sont difficiles à combiner au sein d’un modèle unique. Par exemple, la vidéo et le texte ont des taux d'échantillonnage différents
Récemment, l'équipe de recherche de Google DeepMind a découplé le modèle multimodal en plusieurs modèles autorégressifs indépendants et spécialisés à traiter en fonction des caractéristiques des différentes modalités saisies.
Plus précisément, l'étude propose un modèle multimodal appelé Mirasol3B. Mirasol3B se compose de composants autorégressifs synchronisés dans le temps pour l'audio et la vidéo ainsi que de composants autorégressifs pour les modalités contextuelles. Ces modalités ne sont pas nécessairement alignées dans le temps, mais disposées séquentiellement
Adresse papier : https://arxiv.org/abs/2311.05698
Mirasol3B atteint SOTA au niveau des benchmarks multimodaux, surpassant les modèles plus grands. En apprenant des représentations plus compactes, en contrôlant la longueur de séquence des représentations de caractéristiques audio-vidéo et en modélisant sur la base de correspondances temporelles, Mirasol3B est en mesure de répondre efficacement aux exigences de calcul élevées des entrées multimodales.
Introduction à la méthode
Mirasol3B est un modèle multimodal audio-vidéo-texte dans lequel la modélisation autorégressive est découplée en composants autorégressifs pour les modalités alignées dans le temps (par exemple audio, vidéo) et pour les composants non autorégressifs d'alignement temporel. modalités contextuelles (par exemple, texte). Mirasol3B utilise des poids d'attention croisée pour coordonner le processus d'apprentissage de ces composants. Ce découplage rend la répartition des paramètres au sein du modèle plus raisonnable, alloue suffisamment de capacité aux modalités (vidéo et audio) et allège le modèle global.
Comme le montre la figure 1, Mirasol3B se compose de deux composants d'apprentissage principaux : un composant autorégressif et un composant de combinaison d'entrées. Parmi eux, le composant autorégressif est conçu pour gérer des entrées multimodales presque simultanées telles que la vidéo et l'audio pour des combinaisons d'entrées opportunes
Lors de la réécriture du contenu, la signification originale doit rester inchangée, et changer la langue en chinois. L'étude propose de segmenter les modalités temporellement alignées en segments temporels et d'apprendre des représentations conjointes audio-vidéo dans les segments temporels. Plus précisément, cette recherche propose un mécanisme d'apprentissage modal conjoint des fonctionnalités appelé « Combiner ». "Combiner" fusionne les caractéristiques modales au cours de la même période pour générer une représentation plus compacte
"Combiner" extrait la représentation spatio-temporelle primaire de l'entrée modale d'origine, capture les caractéristiques dynamiques de la vidéo et la combine avec le modèle commun. recevez une entrée multimodale à différents débits et fonctionne bien lors du traitement de vidéos plus longues.
"Combiner" répond efficacement au besoin d'une représentation modale d'être à la fois efficace et informative. Il peut couvrir entièrement les événements et les activités en vidéo et dans d'autres modalités concurrentes, et peut être utilisé dans des modèles autorégressifs ultérieurs pour apprendre les dépendances à long terme.
Afin de traiter les signaux vidéo et audio et de s'adapter à des entrées vidéo/audio plus longues, ils sont divisés en petits morceaux (à peu près synchronisés dans le temps), puis les représentations audiovisuelles conjointes sont apprises via "Combiner". . Le deuxième composant gère le contexte ou les signaux mal alignés dans le temps, tels que les informations textuelles globales, qui sont souvent encore continues. Il est également autorégressif et utilise l’espace latent combiné comme entrée d’attention croisée.
Le composant d'apprentissage contient de la vidéo et de l'audio, et ses paramètres sont de 3B tandis que le composant sans audio est de 2,9B ; Parmi eux, la plupart des paramètres sont utilisés dans les modèles autorégressifs audio et vidéo. Mirasol3B traite généralement des vidéos de 128 images, et peut également traiter des vidéos plus longues, telles que 512 images. En raison de la conception de la partition et de l'architecture du modèle « Combiner », l'ajout de plus d'images ou l'augmentation de la taille et du nombre de blocs, etc. seulement Les paramètres seront légèrement augmentés, ce qui résout le problème selon lequel les vidéos plus longues nécessitent plus de paramètres et une plus grande mémoire.
Expériences et résultats
L'étude a évalué Mirasol3B sur le benchmark standard VideoQA, le benchmark vidéo longue vidéo et le benchmark audio+vidéo.
Les résultats des tests sur l'ensemble de données VideoQA MSRVTTQA sont présentés dans le tableau 1 ci-dessous. Mirasol3B surpasse le modèle SOTA actuel, ainsi que les modèles plus grands tels que PaLI-X et Flamingo.
En termes de questions et réponses vidéo longues, cette étude a testé et évalué Mirasol3B sur les ensembles de données ActivityNet-QA et NExTQA. Les résultats sont présentés dans le tableau 2 ci-dessous :
Dans le À la fin, les études KineticsSound, VGG-Sound et Epic-Sound ont été sélectionnées pour une analyse comparative audio-vidéo et une évaluation de génération ouverte a été adoptée. Les résultats expérimentaux sont présentés dans le tableau 3 ci-dessous :
Les lecteurs intéressés peuvent lire le texte original de l'article pour en savoir plus sur le contenu de la recherche.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

DDREASE est un outil permettant de récupérer des données à partir de périphériques de fichiers ou de blocs tels que des disques durs, des SSD, des disques RAM, des CD, des DVD et des périphériques de stockage USB. Il copie les données d'un périphérique bloc à un autre, laissant derrière lui les blocs corrompus et ne déplaçant que les bons blocs. ddreasue est un puissant outil de récupération entièrement automatisé car il ne nécessite aucune interruption pendant les opérations de récupération. De plus, grâce au fichier map ddasue, il peut être arrêté et repris à tout moment. Les autres fonctionnalités clés de DDREASE sont les suivantes : Il n'écrase pas les données récupérées mais comble les lacunes en cas de récupération itérative. Cependant, il peut être tronqué si l'outil est invité à le faire explicitement. Récupérer les données de plusieurs fichiers ou blocs en un seul

0. À quoi sert cet article ? Nous proposons DepthFM : un modèle d'estimation de profondeur monoculaire génératif de pointe, polyvalent et rapide. En plus des tâches traditionnelles d'estimation de la profondeur, DepthFM démontre également des capacités de pointe dans les tâches en aval telles que l'inpainting en profondeur. DepthFM est efficace et peut synthétiser des cartes de profondeur en quelques étapes d'inférence. Lisons ce travail ensemble ~ 1. Titre des informations sur l'article : DepthFM : FastMonocularDepthEstimationwithFlowMatching Auteur : MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Les performances de JAX, promu par Google, ont dépassé celles de Pytorch et TensorFlow lors de récents tests de référence, se classant au premier rang sur 7 indicateurs. Et le test n’a pas été fait sur le TPU présentant les meilleures performances JAX. Bien que parmi les développeurs, Pytorch soit toujours plus populaire que Tensorflow. Mais à l’avenir, des modèles plus volumineux seront peut-être formés et exécutés sur la base de la plate-forme JAX. Modèles Récemment, l'équipe Keras a comparé trois backends (TensorFlow, JAX, PyTorch) avec l'implémentation native de PyTorch et Keras2 avec TensorFlow. Premièrement, ils sélectionnent un ensemble de

Boston Dynamics Atlas entre officiellement dans l’ère des robots électriques ! Hier, l'Atlas hydraulique s'est retiré "en larmes" de la scène de l'histoire. Aujourd'hui, Boston Dynamics a annoncé que l'Atlas électrique était au travail. Il semble que dans le domaine des robots humanoïdes commerciaux, Boston Dynamics soit déterminé à concurrencer Tesla. Après la sortie de la nouvelle vidéo, elle a déjà été visionnée par plus d’un million de personnes en seulement dix heures. Les personnes âgées partent et de nouveaux rôles apparaissent. C'est une nécessité historique. Il ne fait aucun doute que cette année est l’année explosive des robots humanoïdes. Les internautes ont commenté : Les progrès des robots ont fait ressembler la cérémonie d'ouverture de cette année à des êtres humains, et le degré de liberté est bien plus grand que celui des humains. Mais n'est-ce vraiment pas un film d'horreur ? Au début de la vidéo, Atlas est allongé calmement sur le sol, apparemment sur le dos. Ce qui suit est à couper le souffle

Vous êtes confronté à un décalage et à une connexion de données mobile lente sur iPhone ? En règle générale, la puissance de l'Internet cellulaire sur votre téléphone dépend de plusieurs facteurs tels que la région, le type de réseau cellulaire, le type d'itinérance, etc. Vous pouvez prendre certaines mesures pour obtenir une connexion Internet cellulaire plus rapide et plus fiable. Correctif 1 – Forcer le redémarrage de l'iPhone Parfois, le redémarrage forcé de votre appareil réinitialise simplement beaucoup de choses, y compris la connexion cellulaire. Étape 1 – Appuyez simplement une fois sur la touche d’augmentation du volume et relâchez-la. Ensuite, appuyez sur la touche de réduction du volume et relâchez-la à nouveau. Étape 2 – La partie suivante du processus consiste à maintenir le bouton sur le côté droit. Laissez l'iPhone finir de redémarrer. Activez les données cellulaires et vérifiez la vitesse du réseau. Vérifiez à nouveau Correctif 2 – Changer le mode de données Bien que la 5G offre de meilleures vitesses de réseau, elle fonctionne mieux lorsque le signal est plus faible

Je pleure à mort. Le monde construit à la folie de grands modèles. Les données sur Internet ne suffisent pas du tout. Le modèle de formation ressemble à « The Hunger Games », et les chercheurs en IA du monde entier se demandent comment nourrir ces personnes avides de données. Ce problème est particulièrement important dans les tâches multimodales. À une époque où rien ne pouvait être fait, une équipe de start-up du département de l'Université Renmin de Chine a utilisé son propre nouveau modèle pour devenir la première en Chine à faire de « l'auto-alimentation des données générées par le modèle » une réalité. De plus, il s’agit d’une approche à deux volets, du côté compréhension et du côté génération, les deux côtés peuvent générer de nouvelles données multimodales de haute qualité et fournir un retour de données au modèle lui-même. Qu'est-ce qu'un modèle ? Awaker 1.0, un grand modèle multimodal qui vient d'apparaître sur le Forum Zhongguancun. Qui est l'équipe ? Moteur Sophon. Fondé par Gao Yizhao, doctorant à la Hillhouse School of Artificial Intelligence de l’Université Renmin.

La dernière vidéo du robot Optimus de Tesla est sortie, et il peut déjà fonctionner en usine. À vitesse normale, il trie les batteries (les batteries 4680 de Tesla) comme ceci : Le responsable a également publié à quoi cela ressemble à une vitesse 20 fois supérieure - sur un petit "poste de travail", en sélectionnant et en sélectionnant et en sélectionnant : Cette fois, il est publié L'un des points forts de la vidéo est qu'Optimus réalise ce travail en usine, de manière totalement autonome, sans intervention humaine tout au long du processus. Et du point de vue d'Optimus, il peut également récupérer et placer la batterie tordue, en se concentrant sur la correction automatique des erreurs : concernant la main d'Optimus, le scientifique de NVIDIA Jim Fan a donné une évaluation élevée : la main d'Optimus est l'un des robots à cinq doigts du monde. le plus adroit. Ses mains ne sont pas seulement tactiles

Quoi? Zootopie est-elle concrétisée par l’IA domestique ? Avec la vidéo est exposé un nouveau modèle de génération vidéo domestique à grande échelle appelé « Keling ». Sora utilise une voie technique similaire et combine un certain nombre d'innovations technologiques auto-développées pour produire des vidéos qui comportent non seulement des mouvements larges et raisonnables, mais qui simulent également les caractéristiques du monde physique et possèdent de fortes capacités de combinaison conceptuelle et d'imagination. Selon les données, Keling prend en charge la génération de vidéos ultra-longues allant jusqu'à 2 minutes à 30 ips, avec des résolutions allant jusqu'à 1080p, et prend en charge plusieurs formats d'image. Un autre point important est que Keling n'est pas une démo ou une démonstration de résultats vidéo publiée par le laboratoire, mais une application au niveau produit lancée par Kuaishou, un acteur leader dans le domaine de la vidéo courte. De plus, l'objectif principal est d'être pragmatique, de ne pas faire de chèques en blanc et de se mettre en ligne dès sa sortie. Le grand modèle de Ke Ling est déjà sorti à Kuaiying.
