Maison > Périphériques technologiques > IA > Les Chinois de l'UCLA proposent un nouveau mécanisme de jeu automatique ! LLM s'entraîne tout seul et l'effet est meilleur que celui des conseils d'experts GPT-4.

Les Chinois de l'UCLA proposent un nouveau mécanisme de jeu automatique ! LLM s'entraîne tout seul et l'effet est meilleur que celui des conseils d'experts GPT-4.

WBOY
Libérer: 2024-02-03 08:00:16
avant
1234 Les gens l'ont consulté

Les données synthétiques sont devenues la pierre angulaire la plus importante dans l'évolution des grands modèles de langage.

À la fin de l'année dernière, certains internautes ont révélé qu'Ilya, ancien scientifique en chef d'OpenAI, avait déclaré à plusieurs reprises qu'il n'y avait pas de goulots d'étranglement en matière de données dans le développement de LLM et que les données synthétiques pouvaient résoudre la plupart des problèmes.

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Photos

Après avoir étudié le dernier lot d'articles, Jim Fan, scientifique principal chez NVIDIA, a conclu que la combinaison de données synthétiques avec la technologie traditionnelle de génération de jeux et d'images peut permettre à LLM de réaliser une énorme auto-évolution.

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Photos

L'article qui proposait formellement cette méthode a été rédigé par une équipe chinoise de l'UCLA.

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Pictures

Adresse papier : https://www.php.cn/link/236522d75c8164f90a85448456e1d1aa

Ils utilisent le mécanisme de lecture automatique (SPIN) pour générer des données synthétiques, et grâce au soi- méthode de réglage fin, non En s'appuyant sur le nouvel ensemble de données, le score moyen du LLM le plus faible sur l'Open LLM Leaderboard Benchmark est amélioré de 58,14 à 63,16.

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.

Les chercheurs ont proposé une méthode d'auto-ajustement appelée SPIN, qui améliore progressivement les performances du modèle de langage grâce à l'auto-jeu - LLM rivalise avec sa version itérative précédente.

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Photos

De cette façon, l'auto-évolution du modèle peut être complétée sans avoir besoin de données annotées humaines supplémentaires ou de commentaires de modèles de langage de niveau supérieur.

Les paramètres du modèle principal et du modèle adverse sont exactement les mêmes. Jouez contre vous-même avec deux versions différentes.

Le processus de jeu peut être résumé par la formule :

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Images

La méthode d'entraînement du self-play Pour résumer, l'idée est à peu près la suivante :

Distinguer les réponses. généré par le modèle de l'adversaire en entraînant le modèle principal et les réponses de la cible humaine, le modèle de l'adversaire est un modèle de langage obtenu de manière itérative en tours, dans le but de générer des réponses aussi indiscernables que possible.

Supposons que les paramètres du modèle de langage obtenus lors de la t-ème itération sont θt, puis dans l'itération t+1, utilisez θt comme joueur adverse et utilisez θt pour générer la réponse y' pour chaque invite x dans le ensemble de données de réglage fin supervisé.

Optimisez ensuite les nouveaux paramètres du modèle de langage θt+1 afin qu'il puisse distinguer y' de la réponse humaine y dans l'ensemble de données de réglage fin supervisé. Cela peut former un processus graduel et se rapprocher progressivement de la distribution de réponse cible.

Ici, la fonction de perte du modèle principal utilise une perte logarithmique, en tenant compte de la différence de valeurs de fonction entre y et y'.

Ajoutez la régularisation de divergence KL au modèle adverse pour éviter que les paramètres du modèle ne s'écartent trop.

Les objectifs spécifiques de l'entraînement au jeu antagoniste sont présentés dans la Formule 4.7. L'analyse théorique montre que lorsque la distribution des réponses du modèle de langage est égale à la distribution des réponses cible, le processus d'optimisation converge.

Si vous utilisez les données synthétiques générées après le jeu pour l'entraînement, puis utilisez SPIN pour l'auto-réglage, les performances de LLM peuvent être efficacement améliorées.

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Images

Mais ensuite, le simple réglage à nouveau des données de réglage initial entraînera une dégradation des performances.

SPIN ne nécessite que le modèle initial lui-même et l'ensemble de données affinées existantes, afin que LLM puisse s'améliorer grâce à SPIN.

En particulier, SPIN surpasse même les modèles entraînés avec des données de préférences GPT-4 supplémentaires via DPO.

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Photos

Et les expériences montrent également que l'entraînement itératif peut améliorer les performances du modèle plus efficacement qu'un entraînement avec plus d'époques.

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Photos

Prolonger la durée d'entraînement d'une seule itération ne réduira pas les performances de SPIN, mais il atteindra sa limite.

Plus il y a d'itérations, plus l'effet de SPIN est évident.

Après avoir lu cet article, les internautes ont soupiré :

Les données synthétiques domineront le développement de grands modèles de langage, ce qui sera une très bonne nouvelle pour les chercheurs de grands modèles de langage !

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Pictures

Le jeu automatique permet à LLM de s'améliorer continuellement

Plus précisément, le système SPIN développé par les chercheurs est un système dans lequel deux modèles qui s'influencent mutuellement se promeuvent.

désigné par Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4. le LLM de l'itération précédente t, que les chercheurs ont utilisé pour générer la réponse y au signal x dans l'ensemble de données SFT annoté par l'homme.

Le prochain objectif est de trouver un nouveau LLMLes Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4. capable de faire la distinction entre la Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.réponse générée y et la réponse générée par l'homme y'.

Ce processus peut être vu comme un jeu à deux joueurs :

Le joueur principal ou le nouveau LLMLes Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4. essaie de discerner la réponse du joueur adverse et la réponse générée par l'humain, tandis que l'adversaire ou l'ancien LLMLes Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4. génère des réponses aussi similaires que possible aux données de l'ensemble de données SFT annoté manuellement.

Le nouveau LLM Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4. obtenu en affinant l'ancien Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4. préfère la réponse de Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4., ce qui entraîne une répartition plus cohérente Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4. avec Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4..

Dans la prochaine itération, le LLMLes Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4. nouvellement acquis devient l'adversaire de génération de réponse, et le but du processus d'auto-jeu est que le LLM finisse par converger vers Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4., de telle sorte que le LLM le plus fort ne soit plus capable de faire la distinction entre sa version de réponse générée précédemment et la version générée par l'homme.

Comment utiliser SPIN pour améliorer les performances du modèle

Les chercheurs ont conçu un jeu à deux joueurs, dans lequel l'objectif principal du modèle est de faire la distinction entre les réponses générées par LLM et les réponses générées par l'homme. Dans le même temps, le rôle de l’adversaire est de produire des réponses qui ne se distinguent pas de celles des humains. La formation du modèle principal est au cœur de l’approche des chercheurs.

Expliquez d'abord comment entraîner le modèle principal pour distinguer les réponses de LLM des réponses humaines.

Au cœur de l'approche des chercheurs se trouve un mécanisme de jeu de soi, dans lequel le joueur principal et l'adversaire sont le même LLM, mais issus d'itérations différentes.

Plus précisément, l'adversaire est l'ancien LLM de l'itération précédente, et l'acteur principal est le nouveau LLM à apprendre dans l'itération actuelle. L'itération t+1 comprend les deux étapes suivantes : (1) entraîner le modèle principal, (2) mettre à jour le modèle adverse.

Formation du maître modèle

Tout d'abord, les chercheurs expliqueront comment former le maître joueur à faire la distinction entre les réponses LLM et les réponses humaines. Inspirés par la mesure de probabilité intégrale (IPM), les chercheurs ont formulé la fonction objectif :

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Image

Mettre à jour le modèle de l'adversaire

Le but du modèle de l'adversaire est de trouver un meilleur LLM qui produit La réponse de n'est pas différente des données p du modèle principal.

Expériences

SPIN améliore efficacement les performances de référence

Les chercheurs ont utilisé HuggingFace Open LLM Leaderboard comme évaluation approfondie pour prouver l'efficacité de SPIN.

Dans la figure ci-dessous, les chercheurs ont comparé les performances du modèle affiné par SPIN après 0 à 3 itérations avec le modèle de base zephyr-7b-sft-full.

Les chercheurs peuvent observer que SPIN montre des résultats significatifs dans l'amélioration des performances du modèle en exploitant davantage l'ensemble de données SFT, sur lequel le modèle de base a été entièrement affiné.

Dans l'itération 0, la réponse du modèle a été générée à partir de zephyr-7b-sft-full, et les chercheurs ont observé une amélioration globale de 2,66 % du score moyen.

Cette amélioration est particulièrement visible sur les benchmarks TruthfulQA et GSM8k, avec des augmentations de plus de 5% et 10% respectivement.

Dans l'itération 1, les chercheurs ont utilisé le modèle LLM de l'itération 0 pour générer une nouvelle réponse pour SPIN, en suivant le processus décrit dans l'algorithme 1.

Cette itération produit une amélioration supplémentaire de 1,32% en moyenne, ce qui est particulièrement significatif sur les benchmarks Arc Challenge et TruthfulQA.

Les itérations suivantes ont poursuivi la tendance aux améliorations progressives pour diverses tâches. Dans le même temps, l'amélioration à l'itération t+1 est naturellement plus petite

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.picture

zephyr-7b-beta est un modèle dérivé de zephyr-7b-sft-full, utilisant DPO sur environ 62 000 données de préférences qualifié.

Les chercheurs notent que DPO nécessite une contribution humaine ou un retour d'information de haut niveau sur un modèle de langage pour déterminer les préférences, la génération de données est donc un processus plutôt coûteux.

En revanche, le SPIN des chercheurs ne nécessite que le modèle initial lui-même.

De plus, contrairement au DPO qui nécessite de nouvelles sources de données, l’approche des chercheurs exploite pleinement les ensembles de données SFT existants.

La figure ci-dessous montre la comparaison des performances de SPIN avec la formation DPO aux itérations 0 et 1 (en utilisant 50 000 données SFT).

Les Chinois de lUCLA proposent un nouveau mécanisme de jeu automatique ! LLM sentraîne tout seul et leffet est meilleur que celui des conseils dexperts GPT-4.Photos

Les chercheurs peuvent observer que bien que DPO utilise davantage de données provenant de nouvelles sources, SPIN basé sur les données SFT existantes démarre à partir de l'itération 1. SPIN dépasse même les performances de DPO et SPIN se classe dans le classement. les tests de référence dépassent même ceux du DPO.

Référence :

https://www.php.cn/link/236522d75c8164f90a85448456e1d1aa

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal