


Résumant 374 travaux connexes, l'équipe de Tao Dacheng, en collaboration avec l'Université de Hong Kong et l'UMD, a publié la dernière revue de la distillation des connaissances LLM.
Les grands modèles linguistiques (LLM) se sont développés rapidement au cours des deux dernières années, et certains modèles et produits phénoménaux ont émergé, tels que GPT-4, Gemini, Claude, etc., mais la plupart d'entre eux sont de source fermée. Il existe un écart important entre la plupart des LLM open source actuellement accessibles à la communauté des chercheurs et les LLM à source fermée. Par conséquent, l'amélioration des capacités des LLM open source et d'autres petits modèles pour réduire l'écart entre eux et les grands modèles à source fermée est devenue un point chaud de la recherche. dans ce champ.
Les puissantes capacités du LLM, en particulier du LLM à source fermée, permettent aux chercheurs scientifiques et aux praticiens industriels d'utiliser les résultats et les connaissances de ces grands modèles lors de la formation de leurs propres modèles. Ce processus est essentiellement un processus de distillation des connaissances (KD), c'est-à-dire la distillation des connaissances d'un modèle d'enseignant (tel que GPT-4) vers un modèle plus petit (tel que Llama), ce qui améliore considérablement les capacités du petit modèle. On peut constater que la technologie de distillation des connaissances des grands modèles de langage est omniprésente et constitue une méthode rentable et efficace permettant aux chercheurs de les aider à former et à améliorer leurs propres modèles.
Alors, comment les travaux actuels utilisent-ils le LLM à source fermée pour la distillation des connaissances et l'acquisition de données ? Comment intégrer efficacement ces connaissances dans de petits modèles ? Quelles compétences puissantes les petits modèles peuvent-ils acquérir auprès des modèles enseignants ? Comment la distillation des connaissances du LLM joue-t-elle un rôle dans l’industrie avec des caractéristiques de domaine ? Ces questions méritent une réflexion et des recherches approfondies.
En 2020, l'équipe de Tao Dacheng a publié « Knowledge Distillation : A Survey », qui explorait de manière approfondie l'application de la distillation des connaissances dans l'apprentissage profond. Cette technologie est principalement utilisée pour la compression et l’accélération des modèles. Avec l'essor des modèles linguistiques à grande échelle, les domaines d'application de la distillation des connaissances ont été continuellement élargis, ce qui peut non seulement améliorer les performances des petits modèles, mais également permettre l'auto-amélioration des modèles.
Début 2024, l'équipe de Tao Dacheng a collaboré avec l'Université de Hong Kong et l'Université du Maryland pour publier la dernière revue « A Survey on Knowledge Distillation of Large Language Models », qui résumait 374 travaux connexes et discutait de la manière d'obtenir des connaissances de grands modèles de langage. Formation de modèles plus petits et rôle de la distillation des connaissances dans la compression des modèles et l'auto-formation. Dans le même temps, cette revue couvre également la distillation des grandes compétences en matière de modèles de langage et la distillation des champs verticaux, aidant les chercheurs à pleinement comprendre comment former et améliorer leurs propres modèles.
Titre de l'article : A Survey on Knowledge Distillation of Large Language Models
Lien de l'article : https://arxiv.org/abs/2402.13116
Lien du projet : https://github. com/Tebmer/Awesome-Knowledge-Distillation-of-LLMs
Overview Architecture
Le cadre global de la distillation des connaissances des grands modèles de langage est résumé comme le montre la figure ci-dessous :
Premièrement, basé sur Processus de distillation des connaissances sur un grand modèle de langage, cette revue décompose la distillation des connaissances en deux étapes :
1.Élicitation des connaissances : c'est-à-dire comment obtenir des connaissances à partir du modèle de l'enseignant. Le processus comprend principalement : a) Premières instructions de construction pour identifier les aptitudes ou compétences verticales à distiller à partir du modèle d'enseignant.
b) Utilisez ensuite les connaissances initiales (telles qu'un certain ensemble de données) comme entrée pour piloter le modèle de l'enseignant et générer les réponses correspondantes, guidant ainsi les connaissances correspondantes.
c) Parallèlement, l'acquisition de connaissances inclut certaines technologies spécifiques : annotation, expansion, synthèse, extraction de fonctionnalités, feedback et connaissances propres.
2.
Algorithmes de distillation: C'est-à-dire comment injecter les connaissances acquises dans le modèle de l'étudiant. Les algorithmes spécifiques de cette partie incluent : le réglage fin supervisé, la divergence et la similarité, l'apprentissage par renforcement (c'est-à-dire l'apprentissage par renforcement à partir du feedback de l'IA, RLAIF) et l'optimisation du classement. La méthode de classification de cette revue résume les travaux connexes en trois dimensions basés sur ce processus : les algorithmes de distillation des connaissances, la distillation des compétences et la distillation du champ vertical. Ces deux derniers sont distillés sur la base d’algorithmes de distillation des connaissances. Les détails de cette classification et un résumé des travaux associés correspondants sont présentés dans la figure ci-dessous.
Élicitation des connaissances
Selon la manière d'acquérir les connaissances à partir du modèle de l'enseignant, cette revue divise sa technologie en étiquetage, expansion et synthèse de données (data Curation), extraction de fonctionnalités. (Feature), feedback (Feedback), connaissances auto-générées (Self-Knowledge). Des exemples de chaque méthode sont présentés ci-dessous :
Étiquetage : L'étiquetage des connaissances signifie que les enseignants LLM utilisent les entrées données comme connaissances initiales pour générer le résultat correspondant basé sur des instructions ou des exemples. Par exemple, la connaissance initiale est l'entrée d'un certain ensemble de données, et le modèle de l'enseignant étiquette la sortie de la chaîne de réflexion.
Expansion : Une caractéristique clé de cette technologie est d'utiliser les capacités d'apprentissage contextuel des LLM pour générer des données similaires à l'exemple basé sur l'exemple de départ fourni. L’avantage est que des ensembles de données plus diversifiés et plus étendus peuvent être générés à partir d’exemples. Cependant, à mesure que les données générées continuent d’augmenter, des problèmes d’homogénéité des données peuvent survenir.
Synthèse de données (Data Curation) : Une caractéristique distinctive de la synthèse de données est qu'elle synthétise les données à partir de zéro. Il utilise une grande quantité de méta-informations (telles que des sujets, des documents de connaissances, des données originales, etc.) en tant que quantités diverses et énormes de connaissances initiales pour obtenir des ensembles de données à grande échelle et de haute qualité provenant des LLM des enseignants.
Acquisition de fonctionnalités (Feature) : La méthode typique pour obtenir la connaissance des fonctionnalités consiste à transmettre les séquences d'entrée et de sortie aux LLM de l'enseignant, puis à extraire sa représentation interne. Cette méthode convient principalement aux LLM open source et est souvent utilisée pour la compression de modèles.
Feedback : Les connaissances de rétroaction fournissent généralement un retour au modèle de l'enseignant sur le résultat de l'élève, par exemple en fournissant des préférences, des informations d'évaluation ou de correction pour guider les élèves à générer un meilleur résultat.
Connaissance de soi : Les connaissances peuvent également être obtenues auprès des étudiants eux-mêmes, c'est ce qu'on appelle les connaissances auto-générées. Dans ce cas, le même modèle agit à la fois comme enseignant et comme élève, s’améliorant de manière itérative en distillant des techniques et en améliorant ses propres résultats générés précédemment. Cette approche fonctionne bien pour les LLM open source.
Résumé : À l'heure actuelle, la méthode d'extension est encore largement utilisée et la méthode de synthèse de données est progressivement devenue courante car elle peut générer une grande quantité de données de haute qualité. Les méthodes de rétroaction peuvent fournir des connaissances qui aident les modèles d'étudiants à améliorer leurs capacités d'alignement. Les méthodes d’acquisition de fonctionnalités et de connaissances autogénérées sont devenues populaires en raison de l’utilisation de grands modèles open source comme modèles pour les enseignants. La méthode d'acquisition de fonctionnalités permet de compresser les modèles open source, tandis que la méthode de connaissances auto-générées peut améliorer continuellement les grands modèles de langage. Il est important de noter que les méthodes ci-dessus peuvent être combinées efficacement et que les chercheurs peuvent explorer différentes combinaisons pour obtenir des connaissances plus efficaces.
Algorithmes de distillation
Après avoir acquis des connaissances, celles-ci doivent être distillées dans le modèle de l'étudiant. Les algorithmes de distillation comprennent : le réglage fin supervisé, la divergence et la similarité, l'apprentissage par renforcement et l'optimisation du classement. Un exemple est présenté dans la figure ci-dessous :
Réglage fin supervisé : Le réglage fin supervisé (SFT) affine le modèle de l'élève en maximisant la probabilité des séquences générées par le modèle de l'enseignant, permettant à l'élève modèle pour imiter le modèle de l’enseignant. Il s’agit actuellement de la technique la plus couramment utilisée pour distiller les connaissances des LLM.
Divergence et similarité : Cet algorithme utilise la connaissance des paramètres internes du modèle d'enseignant comme signal de supervision pour la formation du modèle d'étudiant et convient aux modèles d'enseignant open source. Les méthodes basées sur la divergence et la similarité alignent respectivement les distributions de probabilité et les états cachés.
Apprentissage par renforcement : Cet algorithme convient à l'utilisation des connaissances des commentaires des enseignants pour former des modèles d'élèves, c'est-à-dire la technologie RLAIF. Il y a deux aspects principaux : (1) utiliser les données de rétroaction générées par l'enseignant pour former un modèle de récompense de l'élève, (2) optimiser le modèle de l'élève en maximisant la récompense attendue grâce au modèle de récompense entraîné. Les enseignants peuvent également servir directement de modèles de récompense.
Optimisation du classement : L'optimisation du classement peut également injecter des connaissances sur les préférences dans le modèle étudiant. Ses avantages sont la stabilité et une efficacité de calcul élevée, comme certains algorithmes classiques tels que DPO, RRHF, etc.
Distillation des compétences
Il est bien connu que les grands modèles de langage possèdent de nombreuses excellentes capacités. Grâce à la technologie de distillation des connaissances, des instructions sont fournies pour contrôler les enseignants afin qu'ils génèrent des connaissances contenant les compétences correspondantes et forment des modèles d'élèves afin qu'ils puissent acquérir ces capacités. Ces fonctionnalités incluent principalement des fonctionnalités telles que le suivi du contexte (tel que les instructions), l'alignement, les agents, les tâches de traitement du langage naturel (NLP) et la multimodalité.
Le tableau suivant résume le travail classique de distillation des compétences, et résume également les compétences, les connaissances de départ, le modèle de l'enseignant, le modèle de l'étudiant, les méthodes d'acquisition des connaissances et les algorithmes de distillation impliqués dans chaque travail.
Distillation sur champ vertical
En plus des grands modèles linguistiques dans les domaines généraux, de nombreux efforts sont désormais déployés pour former de grands modèles linguistiques dans des domaines verticaux, ce qui aide la communauté de recherche et l'industrie à appliquer et à déployer de grands modèles linguistiques. Bien que les grands modèles de langage (tels que GPT-4) aient une connaissance limitée du domaine dans les domaines verticaux, ils peuvent toujours fournir certaines connaissances et capacités du domaine ou améliorer les ensembles de données de domaine existants. Les domaines concernés ici comprennent principalement (1) le droit, (2) la santé médicale, (3) la finance, (4) la science et quelques autres domaines. La taxonomie et les travaux connexes de cette partie sont présentés dans la figure ci-dessous :
Orientations futures
Cette revue explore les problèmes actuels de distillation des connaissances des grands modèles de langage et les orientations de recherche futures potentielles, comprenant principalement :
Sélection des données : Comment sélectionner automatiquement les données pour obtenir de meilleurs résultats de distillation ?
Distillation multi-enseignants : Explorez la distillation des connaissances de différents modèles d'enseignants en un seul modèle d'élève.
Connaissances plus riches dans le modèle de l'enseignant : vous pouvez explorer des connaissances plus riches dans le modèle de l'enseignant, y compris les commentaires et les connaissances sur les fonctionnalités, et explorer une combinaison de plusieurs méthodes d'acquisition de connaissances.
Surmonter l'oubli catastrophique lors de la distillation : La capacité à préserver efficacement le modèle original lors de la distillation ou du transfert de connaissances reste un défi.
Trusted Knowledge Distillation : Actuellement, KD se concentre principalement sur la distillation de diverses compétences et accorde relativement peu d'attention à la crédibilité des grands modèles.
Distillation faible à forte(Distillation faible à forte). OpenAI propose le concept de « généralisation faible à fort », qui nécessite d'explorer des stratégies techniques innovantes afin que les modèles les plus faibles puissent guider efficacement le processus d'apprentissage des modèles plus forts.
Auto-alignement (auto-distillation). Les instructions peuvent être conçues de manière à ce que le modèle de l'étudiant améliore et aligne de manière autonome son contenu généré en générant des commentaires, des critiques et des explications.
Conclusion
Cette revue fournit un résumé complet et systématique de la façon d'utiliser la connaissance des grands modèles de langage pour améliorer les modèles d'étudiants, tels que les grands modèles de langage open source, et inclut également la technologie d'auto-distillation récemment populaire . Cette revue divise la distillation des connaissances en deux étapes : l'acquisition des connaissances et l'algorithme de distillation, et résume également la distillation des compétences et la distillation sur le terrain vertical. Enfin, cette revue explore l'orientation future de la distillation de grands modèles de langage, dans l'espoir de repousser les limites de la distillation des connaissances des grands modèles de langage et d'obtenir de grands modèles de langage plus accessibles, efficaces, efficients et crédibles.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Mais peut-être qu’il ne pourra pas vaincre le vieil homme dans le parc ? Les Jeux Olympiques de Paris battent leur plein et le tennis de table suscite beaucoup d'intérêt. Dans le même temps, les robots ont également réalisé de nouvelles avancées dans le domaine du tennis de table. DeepMind vient tout juste de proposer le premier agent robot apprenant capable d'atteindre le niveau des joueurs amateurs humains de tennis de table de compétition. Adresse papier : https://arxiv.org/pdf/2408.03906 Quelle est la capacité du robot DeepMind à jouer au tennis de table ? Probablement à égalité avec les joueurs amateurs humains : tant en coup droit qu'en revers : l'adversaire utilise une variété de styles de jeu, et le robot peut également résister : recevoir des services avec des tours différents : Cependant, l'intensité du jeu ne semble pas aussi intense que le vieil homme dans le parc. Pour les robots, le tennis de table

Le 21 août, la Conférence mondiale sur les robots 2024 s'est tenue en grande pompe à Pékin. La marque de robots domestiques de SenseTime, "Yuanluobot SenseRobot", a dévoilé toute sa famille de produits et a récemment lancé le robot de jeu d'échecs Yuanluobot AI - Chess Professional Edition (ci-après dénommé "Yuanluobot SenseRobot"), devenant ainsi le premier robot d'échecs au monde pour le maison. En tant que troisième produit robot jouant aux échecs de Yuanluobo, le nouveau robot Guoxiang a subi un grand nombre de mises à niveau techniques spéciales et d'innovations en matière d'IA et de machines d'ingénierie. Pour la première fois, il a réalisé la capacité de ramasser des pièces d'échecs en trois dimensions. grâce à des griffes mécaniques sur un robot domestique et effectuer des fonctions homme-machine telles que jouer aux échecs, tout le monde joue aux échecs, réviser la notation, etc.

La rentrée scolaire est sur le point de commencer, et ce ne sont pas seulement les étudiants qui sont sur le point de commencer le nouveau semestre qui doivent prendre soin d’eux-mêmes, mais aussi les grands modèles d’IA. Il y a quelque temps, Reddit était rempli d'internautes se plaignant de la paresse de Claude. « Son niveau a beaucoup baissé, il fait souvent des pauses et même la sortie devient très courte. Au cours de la première semaine de sortie, il pouvait traduire un document complet de 4 pages à la fois, mais maintenant il ne peut même plus produire une demi-page. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dans un post intitulé "Totalement déçu par Claude", plein de

Lors de la World Robot Conference qui se tient à Pékin, l'exposition de robots humanoïdes est devenue le centre absolu de la scène. Sur le stand Stardust Intelligent, l'assistant robot IA S1 a réalisé trois performances majeures de dulcimer, d'arts martiaux et de calligraphie. un espace d'exposition, capable à la fois d'arts littéraires et martiaux, a attiré un grand nombre de publics professionnels et de médias. Le jeu élégant sur les cordes élastiques permet au S1 de démontrer un fonctionnement fin et un contrôle absolu avec vitesse, force et précision. CCTV News a réalisé un reportage spécial sur l'apprentissage par imitation et le contrôle intelligent derrière "Calligraphy". Le fondateur de la société, Lai Jie, a expliqué que derrière les mouvements soyeux, le côté matériel recherche le meilleur contrôle de la force et les indicateurs corporels les plus humains (vitesse, charge). etc.), mais du côté de l'IA, les données réelles de mouvement des personnes sont collectées, permettant au robot de devenir plus fort lorsqu'il rencontre une situation forte et d'apprendre à évoluer rapidement. Et agile

Les contributeurs ont beaucoup gagné de cette conférence ACL. L'ACL2024, d'une durée de six jours, se tient à Bangkok, en Thaïlande. ACL est la plus grande conférence internationale dans le domaine de la linguistique informatique et du traitement du langage naturel. Elle est organisée par l'Association internationale pour la linguistique informatique et a lieu chaque année. L'ACL s'est toujours classée première en termes d'influence académique dans le domaine de la PNL, et c'est également une conférence recommandée par le CCF-A. La conférence ACL de cette année est la 62e et a reçu plus de 400 travaux de pointe dans le domaine de la PNL. Hier après-midi, la conférence a annoncé le meilleur article et d'autres récompenses. Cette fois, il y a 7 Best Paper Awards (deux inédits), 1 Best Theme Paper Award et 35 Outstanding Paper Awards. La conférence a également décerné 3 Resource Paper Awards (ResourceAward) et Social Impact Award (

Cet après-midi, Hongmeng Zhixing a officiellement accueilli de nouvelles marques et de nouvelles voitures. Le 6 août, Huawei a organisé la conférence de lancement de nouveaux produits Hongmeng Smart Xingxing S9 et Huawei, réunissant la berline phare intelligente panoramique Xiangjie S9, le nouveau M7Pro et Huawei novaFlip, MatePad Pro 12,2 pouces, le nouveau MatePad Air, Huawei Bisheng With de nombreux nouveaux produits intelligents tous scénarios, notamment la série d'imprimantes laser X1, FreeBuds6i, WATCHFIT3 et l'écran intelligent S5Pro, des voyages intelligents, du bureau intelligent aux vêtements intelligents, Huawei continue de construire un écosystème intelligent complet pour offrir aux consommateurs une expérience intelligente du Internet de tout. Hongmeng Zhixing : Autonomisation approfondie pour promouvoir la modernisation de l'industrie automobile intelligente Huawei s'associe à ses partenaires de l'industrie automobile chinoise pour fournir

Intégration profonde de la vision et de l'apprentissage des robots. Lorsque deux mains de robot travaillent ensemble en douceur pour plier des vêtements, verser du thé et emballer des chaussures, associées au robot humanoïde 1X NEO qui a fait la une des journaux récemment, vous pouvez avoir le sentiment : nous semblons entrer dans l'ère des robots. En fait, ces mouvements soyeux sont le produit d’une technologie robotique avancée + d’une conception de cadre exquise + de grands modèles multimodaux. Nous savons que les robots utiles nécessitent souvent des interactions complexes et exquises avec l’environnement, et que l’environnement peut être représenté comme des contraintes dans les domaines spatial et temporel. Par exemple, si vous souhaitez qu'un robot verse du thé, le robot doit d'abord saisir la poignée de la théière et la maintenir verticalement sans renverser le thé, puis la déplacer doucement jusqu'à ce que l'embouchure de la théière soit alignée avec l'embouchure de la tasse. , puis inclinez la théière selon un certain angle. ce

Editeur du Machine Power Report : Yang Wen Qui peut devenir le roi du cercle vidéo de l'IA ? Dans la série télévisée américaine "Game of Thrones", il y a un "Trône de Fer". La légende raconte qu'il a été fabriqué par le dragon géant « Black Death » qui a fait fondre des milliers d'épées abandonnées par les ennemis, symbolisant l'autorité suprême. Pour s'asseoir sur cette chaise de fer, les grandes familles ont commencé à se battre et à se battre. Depuis l'émergence de Sora, un vigoureux "Game of Thrones" a été lancé dans le cercle vidéo de l'IA. Les principaux acteurs de ce jeu incluent RunwayGen-3 et Luma de l'autre côté de l'océan, ainsi que Kuaishou Keling, ByteDream, national. et Zhimo. Spectre Qingying, Vidu, PixVerseV2, etc. Aujourd'hui, nous allons évaluer et voir qui est qualifié pour siéger sur le « Trône de fer » du cercle vidéo IA. -1-Vincent Vidéo
