


Autonomiser l'IA avec des sens: un voyage dans les LLMS multimodales partie 1
Modèles multimodaux de grande langue (LLMS): combler l'écart entre le texte et la vision
Notre monde est vécu à travers plusieurs sens - langue, vue, odeur et contact - nous permettant de comprendre notre environnement. Les humains sont particulièrement aptes au raisonnement linguistique et à la mémoire visuelle. À mesure que les modèles génératifs de l'IA (Genai) avancent, les chercheurs se concentrent sur l'intégration de la multimodalité pour étendre leurs capacités. Les modèles traditionnels de grande langue (LLM) sont limités à la saisie et à la sortie de texte, négligeant d'autres modalités comme les images, les vidéos ou l'audio. Alors que les LLM excellaient aux tâches telles que la réponse aux questions, le résumé, la traduction et la génération de code, l'intégration d'autres modalités (créant des LLM multimodales) débloque un potentiel significatif. Par exemple, la combinaison de données de texte et d'image permet aux applications comme la réponse à la question visuelle, la segmentation d'image et la détection d'objets. L'ajout de vidéo améliore encore les capacités de l'analyse des médias avancés.
Table des matières
- Introduction aux LLMS multimodaux
- ensembles de données et prétraitement
- Applications de LLMS multimodaux
- Le sous-titrage de l'image
- Extraction d'informations
- Interprétation visuelle et raisonnement
- Reconnaissance optique des caractères (OCR)
- Détection et segmentation des objets
- Architectures de grands modèles de langue de vision (LVLMS)
- VLMS à deux points
- VLMS à deux jambes
- VLMS avec Encodeur d'image, encodeur de texte et décodeur
- VLMS avec architecture de coder-décodeur
- Conclusion
Introduction aux LLMS multimodaux
Genai englobe les modèles d'apprentissage automatique capables de générer de nouveaux contenus. Les modèles de texte à texte, par exemple, génèrent du texte à partir de l'entrée de texte. Cependant, l'extension LLMS avec d'autres modalités ouvre des portes à l'image à image, au texte-vidéo, au texte-parole, à l'image à l'image et à l'image-vidéo. Ceux-ci sont appelés grands modèles multimodaux (LLMS multimodaux). La formation de ces modèles implique de grands ensembles de données contenant du texte et d'autres modalités, permettant à l'algorithme d'apprendre des relations entre tous les types d'entrée. Surtout, ces modèles ne sont pas limités aux types d'entrée / de sortie uniques; Ils s'adaptent à diverses modalités. Cela fournit au système une compréhension plus riche de l'entrée sensorielle.
Cet article est divisé en deux parties: le premier explore les applications et les architectures des LLM multimodaux, tandis que le second (non inclus ici) détaille la formation d'un modèle de vision plus petit.
ensembles de données et prétraitement
combiner différents types de données pour créer des LLM multimodales présente des défis, en particulier lors de la gestion des données 1D, 2D et 3D simultanément. Cela nécessite une approche séquentielle et étape par étape avec une conservation minutieuse des données pour optimiser les performances du modèle.
Cette discussion se concentre sur le texte et les images. Les images et les vidéos, contrairement au texte, varient en taille et en résolution, nécessitant un prétraitement robuste pour normaliser les entrées. Des images, des vidéos, des invites et des métadonnées doivent être prêts à faciliter les processus de pensée cohérents et la cohérence logique pendant l'inférence. Les modèles formés sur des données de texte, d'image et de vidéo sont appelés grands modèles de vision (LVLMS).
Applications de LLMS multimodaux
L'image suivante (à partir d'un article QWEN2-VL) illustre un modèle de vision basé sur le QWEN2 LLM, capable de gérer diverses tâches visuelles.
Le diagramme ci-dessous montre comment un modèle de langage multimodal (MMLM) traite l'image, le texte, l'audio et les données vidéo pour atteindre divers objectifs. Le Core MMLM intègre ces modalités pour le traitement combiné.
Les sections suivantes détaillent les applications spécifiques (exemples de code omis pour la concision):
1. Cabillage d'image: générer des descriptions textuelles des images.
2. Extraction d'informations: récupération de fonctionnalités ou de points de données spécifiques à partir d'images (par exemple, couleur de l'objet, texte).
3. Interprétation visuelle et raisonnement: analyser les images et effectuer des tâches de raisonnement basées sur des informations visuelles.
4. Reconnaissance de caractères optiques (OCR): Extraction du texte des images.
5. Détection et segmentation des objets: identifier et classer les objets dans les images, les segmenter potentiellement en régions distinctes.
Architectures de grands modèles de langue de vision (LVLMS)
L'objectif de LVLMS est d'unifier les fonctionnalités des images, des vidéos et du texte. Plusieurs architectures sont explorées pour la pré-formation:
1. VLMS à deux puissances: les images et le texte sont codés séparément et formés avec un objectif partagé pour aligner les informations des deux modalités.
2. VLMS à deux pattes: similaire à deux points, mais inclut une couche de fusion pour fusionner les fonctionnalités d'image et de texte avant l'objectif partagé.
3. VLMS avec Encodeur d'image - Encodeur de texte et décodeur: un encodeur d'image traite les images, tandis que les données de texte sont traitées par des encodeurs et des décodeurs distincts, permettant des interactions plus complexes.
4. VLMS avec architecture d'encodeur-décodeur: Les images sont traitées par un encodeur, le texte d'un décodeur, avec des fonctionnalités combinées (via la concaténation ou la transtention croisée) avant le décodage.
Conclusion
Les LLM multimodales, en particulier les VLM, sont formés sur des ensembles de données de texte d'image pour combler l'écart entre les données visuelles et textuelles. Ils excellent dans les tâches visuelles, mais obtenir des performances élevées nécessite des ensembles de données et des ressources de calcul substantiels. Bien que capables de nombreuses tâches visuelles, les limites restent dans le raisonnement complexe et l'extraction des données. Des recherches et du développement plus approfondis sont cruciaux pour surmonter ces limites et débloquer le plein potentiel des LLMS multimodales.
références (liste fournie dans le texte d'origine)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

L'article passe en revue les meilleurs générateurs d'art AI, discutant de leurs fonctionnalités, de leur aptitude aux projets créatifs et de la valeur. Il met en évidence MidJourney comme la meilleure valeur pour les professionnels et recommande Dall-E 2 pour un art personnalisable de haute qualité.

META'S LLAMA 3.2: un bond en avant dans l'IA multimodal et mobile Meta a récemment dévoilé Llama 3.2, une progression importante de l'IA avec de puissantes capacités de vision et des modèles de texte légers optimisés pour les appareils mobiles. S'appuyer sur le succès o

L'article compare les meilleurs chatbots d'IA comme Chatgpt, Gemini et Claude, en se concentrant sur leurs fonctionnalités uniques, leurs options de personnalisation et leurs performances dans le traitement et la fiabilité du langage naturel.

Chatgpt 4 est actuellement disponible et largement utilisé, démontrant des améliorations significatives dans la compréhension du contexte et la génération de réponses cohérentes par rapport à ses prédécesseurs comme Chatgpt 3.5. Les développements futurs peuvent inclure un interg plus personnalisé

L'article traite des meilleurs assistants d'écriture d'IA comme Grammarly, Jasper, Copy.ai, WireSonic et Rytr, en se concentrant sur leurs fonctionnalités uniques pour la création de contenu. Il soutient que Jasper excelle dans l'optimisation du référencement, tandis que les outils d'IA aident à maintenir le ton

2024 a été témoin d'un simple passage de l'utilisation des LLM pour la génération de contenu pour comprendre leur fonctionnement intérieur. Cette exploration a conduit à la découverte des agents de l'IA - les systèmes autonomes manipulant des tâches et des décisions avec une intervention humaine minimale. Construire

L'article examine les meilleurs générateurs de voix d'IA comme Google Cloud, Amazon Polly, Microsoft Azure, IBM Watson et Descript, en se concentrant sur leurs fonctionnalités, leur qualité vocale et leur aptitude à différents besoins.

La récente note du PDG de Shopify Tobi Lütke déclare hardiment la maîtrise de l'IA une attente fondamentale pour chaque employé, marquant un changement culturel important au sein de l'entreprise. Ce n'est pas une tendance éphémère; C'est un nouveau paradigme opérationnel intégré à P
