Maison Périphériques technologiques IA Au-delà de la modélisation du langage causal

Au-delà de la modélisation du langage causal

Feb 25, 2025 pm 06:28 PM

SPELIGNEMENTS DE NEIRIPS 2024: Optimisation du modèle de langue Pretering avec modélisation du langage sélectif (SLM)

Récemment, j'ai présenté un article fascinant de Neirips 2024, "Tous les jetons ne sont pas ce dont vous avez besoin pour pré-formation", dans un groupe de lecture local. Cet article aborde une question étonnamment simple mais percutante: la prédiction du prochain est-elle nécessaire pour chaque token pendant le modèle de langue pré-formation?

L'approche standard implique des ensembles de données massifs et applicables à la modélisation du langage causal (CLM) universellement. Cet article remet en question cette hypothèse, proposant que certains jetons entravent, plutôt que d'aide, le processus d'apprentissage. Les auteurs démontrent que la concentration de formation sur les jetons "utiles" améliore considérablement l'efficacité des données et les performances des tâches en aval. Ce message résume leurs idées de base et leurs principales résultats expérimentaux.

Le problème: bruit et apprentissage inefficace

Les grands corpus Web contiennent inévitablement du bruit. Bien que le filtrage au niveau des documents aide, le bruit réside souvent dans des documents individuels. Ces jetons bruyants déchet les ressources de calcul et potentiellement confondre le modèle.

Les auteurs ont analysé la dynamique d'apprentissage au niveau des jetons, catégorisant les jetons en fonction de leur trajectoire de perte entre entropie:

  • l → l (faible à bas): appris rapidement, offrant un avantage supplémentaire minimal.
  • h → l (haut à bas): initialement difficile, mais finalement appris; représentant de précieuses opportunités d'apprentissage.
  • H → H (élevé à élevé): toujours difficile, souvent en raison de l'imprévisibilité inhérente (incertitude aléatorique).
  • l → h (bas à haut): initialement appris, mais deviennent plus tard problématiques, peut-être en raison de changements de contexte ou de bruit.

Leur analyse révèle que seule une petite fraction de jetons fournit des signaux d'apprentissage significatifs.

La solution: modélisation sélective du langage (SLM)

La solution proposée, la modélisation sélective du langage (SLM), offre une approche plus ciblée:

Beyond Causal Language Modeling

  1. Formation du modèle de référence (RM): Un sous-ensemble de haute qualité des données est utilisé pour affiner un modèle de base pré-formé, créant un modèle de référence (RM). Ce RM agit comme une référence pour la «utilité» des jetons.

  2. Calcul de la perte excessive: Pour chaque jeton dans le grand corpus, la différence entre la perte du RM et la perte du modèle de formation actuel (la "perte excessive") est calculée. Une perte excessive plus élevée indique un plus grand potentiel d'amélioration.

  3. Backpropagation sélective: La passe avant complète est effectuée sur tous les jetons, mais la rétro-propagation se produit uniquement pour le haut k% de jetons avec la perte excessive la plus élevée. Cela concentre dynamiquement la formation sur les jetons les plus précieux.

Résultats expérimentaux: gains significatifs

SLM démontre des avantages significatifs dans diverses expériences:

Beyond Causal Language Modeling

  • Domaine mathématique: sur openwebmath , SLM a atteint jusqu'à 10% de gains de performance sur GSM8K et les repères mathématiques par rapport au CLM standard, atteignant les performances de base 5 à 10 fois plus rapidement. Un modèle 7B correspondait à un modèle de pointe utilisant seulement 3% de ses jetons d'entraînement. Le réglage fin a encore augmenté les performances de plus de 40% pour un modèle 1B.

  • Domaine général: Même avec un fort modèle de base pré-formé, le SLM a donné une amélioration moyenne d'environ 5,8% à travers 15 repères, en particulier dans des domaines difficiles comme le code et les mathématiques.

  • Auto-référence: Même un RM rapidement formé du corpus brut a fourni une augmentation de la précision de 2 à 3% et une réduction de 30 à 40% des jetons utilisés.

Conclusion et travaux futurs

Cet article offre des informations précieuses sur la dynamique d'apprentissage au niveau des jetons et introduit SLM, une technique très efficace pour optimiser la pré-entraînement du modèle de langue. Les orientations de recherche futures comprennent la mise à l'échelle du SLM vers des modèles plus grands, l'exploration des modèles de référence basés sur l'API, l'intégration de l'apprentissage du renforcement, l'utilisation de plusieurs modèles de référence et l'alignement du SLM avec des considérations de sécurité et de véracité. Ce travail représente une progression importante dans la formation efficace et efficace du modèle de langage.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
Nordhold: Système de fusion, expliqué
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1672
14
Tutoriel PHP
1276
29
Tutoriel C#
1256
24
Comment construire des agents d'IA multimodaux à l'aide d'AGNO Framework? Comment construire des agents d'IA multimodaux à l'aide d'AGNO Framework? Apr 23, 2025 am 11:30 AM

Tout en travaillant sur une IA agentique, les développeurs se retrouvent souvent à naviguer dans les compromis entre la vitesse, la flexibilité et l'efficacité des ressources. J'ai exploré le cadre de l'IA agentique et je suis tombé sur Agno (plus tôt c'était Phi-

Comment ajouter une colonne dans SQL? - Analytique Vidhya Comment ajouter une colonne dans SQL? - Analytique Vidhya Apr 17, 2025 am 11:43 AM

Instruction ALTER TABLE de SQL: Ajout de colonnes dynamiquement à votre base de données Dans la gestion des données, l'adaptabilité de SQL est cruciale. Besoin d'ajuster votre structure de base de données à la volée? L'énoncé de la table alter est votre solution. Ce guide détaille l'ajout de Colu

Openai change de mise au point avec GPT-4.1, priorise le codage et la rentabilité Openai change de mise au point avec GPT-4.1, priorise le codage et la rentabilité Apr 16, 2025 am 11:37 AM

La version comprend trois modèles distincts, GPT-4.1, GPT-4.1 Mini et GPT-4.1 Nano, signalant une évolution vers des optimisations spécifiques à la tâche dans le paysage du modèle grand langage. Ces modèles ne remplacent pas immédiatement les interfaces orientées utilisateur comme

Au-delà du drame de lama: 4 nouvelles références pour les modèles de grande langue Au-delà du drame de lama: 4 nouvelles références pour les modèles de grande langue Apr 14, 2025 am 11:09 AM

Benchmarks en difficulté: une étude de cas de lama Début avril 2025, Meta a dévoilé sa suite de modèles Llama 4, avec des métriques de performance impressionnantes qui les ont placés favorablement contre des concurrents comme GPT-4O et Claude 3.5 Sonnet. Au centre du launc

Nouveau cours court sur les modèles d'intégration par Andrew Ng Nouveau cours court sur les modèles d'intégration par Andrew Ng Apr 15, 2025 am 11:32 AM

Déverrouiller la puissance des modèles d'intégration: une plongée profonde dans le nouveau cours d'Andrew Ng Imaginez un avenir où les machines comprennent et répondent à vos questions avec une précision parfaite. Ce n'est pas de la science-fiction; Grâce aux progrès de l'IA, cela devient un R

Comment les jeux de TDAH, les outils de santé et les chatbots d'IA transforment la santé mondiale Comment les jeux de TDAH, les outils de santé et les chatbots d'IA transforment la santé mondiale Apr 14, 2025 am 11:27 AM

Un jeu vidéo peut-il faciliter l'anxiété, se concentrer ou soutenir un enfant atteint de TDAH? Au fur et à mesure que les défis de la santé augmentent à l'échelle mondiale - en particulier chez les jeunes - les innovateurs se tournent vers un outil improbable: les jeux vidéo. Maintenant l'un des plus grands divertissements du monde Indus

Simulation et analyse de lancement de fusées à l'aide de Rocketpy - Analytics Vidhya Simulation et analyse de lancement de fusées à l'aide de Rocketpy - Analytics Vidhya Apr 19, 2025 am 11:12 AM

Simuler les lancements de fusée avec Rocketpy: un guide complet Cet article vous guide à travers la simulation des lancements de fusées haute puissance à l'aide de Rocketpy, une puissante bibliothèque Python. Nous couvrirons tout, de la définition de composants de fusée à l'analyse de Simula

Google dévoile la stratégie d'agent la plus complète au cloud prochain 2025 Google dévoile la stratégie d'agent la plus complète au cloud prochain 2025 Apr 15, 2025 am 11:14 AM

Gemini comme fondement de la stratégie d'IA de Google Gemini est la pierre angulaire de la stratégie d'agent AI de Google, tirant parti de ses capacités multimodales avancées pour traiter et générer des réponses à travers le texte, les images, l'audio, la vidéo et le code. Développé par Deepm

See all articles