Maison > Périphériques technologiques > IA > Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique.

Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique.

WBOY
Libérer: 2024-01-13 21:51:06
avant
635 Les gens l'ont consulté

Le MIT et Microsoft ont mené des recherches conjointes et ont découvert qu'aucune formation supplémentaire n'est nécessaire pour améliorer les performances des tâches des grands modèles de langage et réduire leur taille

À l'ère des grands modèles, Transformer est connu pour ses capacités uniques. tout le domaine de la recherche scientifique. Depuis leur introduction, les modèles de langage basés sur Transformer (LLM) ont démontré d'excellentes performances dans diverses tâches. L'architecture sous-jacente de Transformer est devenue la technologie de pointe pour la modélisation et le raisonnement du langage naturel, et a montré de fortes perspectives dans des domaines tels que la vision par ordinateur et l'apprentissage par renforcement.

Cependant, l'architecture actuelle de Transformer est très vaste et généralement nécessite une grande quantité de ressources informatiques pour l’entraînement et le raisonnement.

Réécrivez-le comme ceci : cela est logique de faire cela car un Transformer formé avec plus de paramètres ou de données est évidemment plus performant que les autres modèles. Cependant, de plus en plus de recherches montrent que les modèles basés sur Transformer et les réseaux de neurones n'ont pas besoin de conserver tous les paramètres d'adaptation pour conserver leurs hypothèses apprises.

En général, la surparamétrage semble être utile lors de la formation de modèles, mais ces modèles peuvent être fortement élagué avant l'inférence. Des études ont montré que les réseaux de neurones peuvent souvent supprimer plus de 90 % des poids sans baisse significative des performances. Ce phénomène a suscité l'intérêt des chercheurs pour les stratégies d'élagage qui aident à modéliser le raisonnement.

Des chercheurs du MIT et de Microsoft ont écrit dans l'article "The Truth is in There: Improving Reasoning in Language Models with Layer-Selective Rank Reduction" qui présente une découverte surprenante qui fait preuve de prudence. l'élagage sur des couches spécifiques du modèle Transformer peut améliorer considérablement les performances du modèle sur certaines tâches.

Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique.

  • Veuillez cliquer sur le lien suivant pour consulter l'article : https://arxiv.org/pdf/2312.13558.pdf

  • Page d'accueil de l'article : https://pratyushashama.github.io/laser/

L'étude appelle cette intervention simple LASER (Layer Selective Rank Reduction), qui améliore considérablement les performances du LLM en réduisant sélectivement les composants d'ordre supérieur de la matrice de poids apprise de couches spécifiques dans le modèle Transformer grâce à une décomposition en valeurs singulières. Cette opération peut être effectuée une fois la formation du modèle terminée sans paramètres ni données supplémentaires

Pendant l'opération, la réduction des poids est effectuée dans des matrices et des couches de poids spécifiques au modèle. Cette étude a également révélé que de nombreuses matrices similaires peuvent réduire considérablement les poids, et généralement aucune dégradation des performances n'est observée jusqu'à ce que plus de 90 % des composants soient supprimés.

L'étude a également révélé que ces réductions peuvent améliorer considérablement la précision, une conclusion qui ne semble pas limitée. Par rapport au langage naturel, des améliorations des performances ont également été constatées dans l’apprentissage par renforcement.

De plus, cette recherche tente de déduire ce qui est stocké dans les composants d'ordre supérieur afin de pouvoir le supprimer pour améliorer les performances. L'étude a révélé que LASER répondait aux bonnes questions, mais qu'avant l'intervention, le modèle original répondait principalement avec des mots à haute fréquence (tels que "le", "de", etc.), qui n'étaient même pas du même type sémantique que le bonne réponse, et aussi C'est-à-dire que ces composants amèneront le modèle à générer des mots haute fréquence non pertinents sans intervention.

Cependant, en effectuant un certain degré de réduction de rang, la réponse du modèle peut être transformée en correcte.

Pour comprendre cela, l'étude a également exploré ce que les composants restants codaient individuellement, et ils ont approximé la matrice de poids en utilisant uniquement leurs vecteurs singuliers d'ordre supérieur. Il a été constaté que ces composants décrivaient des réponses différentes ou des mots courants à haute fréquence dans la même catégorie sémantique que la réponse correcte.

Ces résultats suggèrent que lorsque des composants bruyants d'ordre supérieur sont combinés avec des composants d'ordre inférieur, leurs réponses contradictoires produisent une réponse moyenne, qui peut être incorrecte. La figure 1 fournit une représentation visuelle de l'architecture du Transformer et de la procédure suivie par LASER. Ici, la matrice de poids d'une couche spécifique de perceptron multicouche (MLP) est remplacée par son approximation de bas rang.

Vue d'ensemble du laser

fournit une introduction détaillée à l'intervention LASER. Une intervention LASER en une seule étape est définie par le triplet (τ, ℓ, ρ), qui contient le paramètre τ, le nombre de couches ℓ et le rang réduit ρ. Ensemble, ces valeurs décrivent les matrices à remplacer par leurs approximations de bas rang, et le degré d'approximation. Les chercheurs classent les types de matrices avec lesquels ils interféreront en fonction des types de paramètres

Les chercheurs se concentrent sur les matrices en W = {W_q, W_k, W_v, W_o, U_in, U_out}, qui se composent de matrices en MLP et de couches d'attention. Le nombre de strates représente la strate d'intervention du chercheur (la première strate est indexée à partir de 0). Par exemple, Llama-2 a 32 couches, donc ℓ ∈ {0, 1, 2,・・・31}.

En fin de compte, ρ ∈ [0, 1) décrit quelle partie du rang maximum doit être préservée lors des approximations de bas rang. Par exemple, en supposant Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique., le rang maximum de cette matrice est d. Les chercheurs l'ont remplacé par l'approximation ⌊ρ・d⌋-.

La figure 1 ci-dessous est un exemple de LASER. Dans cette figure, τ = U_in et ℓ = L représentent la mise à jour de la matrice de poids de la première couche de MLP dans le bloc Transformateur de la L^ème couche. Un autre paramètre contrôle k dans l'approximation du rang k.

Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique.

LASER peut restreindre le flux de certaines informations dans un réseau et produire de manière inattendue des avantages significatifs en termes de performances. Ces interventions peuvent également être facilement combinées, comme appliquer un ensemble d'interventions dans n'importe quel ordre Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique..

La méthode LASER n'est qu'une simple recherche de telles interventions, modifiées pour apporter un maximum de bénéfices. Il existe cependant de nombreuses autres manières de combiner ces interventions, ce qui constitue une orientation pour les travaux futurs.

Afin de conserver le sens original inchangé, le contenu doit être réécrit en chinois. Il n'est pas nécessaire d'afficher la phrase originale

Dans la partie expérimentale, le chercheur a utilisé le modèle GPT-J pré-entraîné sur l'ensemble de données PILE. Le nombre de couches du modèle est de 27 et les paramètres sont de 6 milliards. Le comportement du modèle est ensuite évalué sur l'ensemble de données CounterFact, qui contient des échantillons de triplets (sujet, relation et réponse), avec trois invites de paraphrase fournies pour chaque question.

La première est l'analyse du modèle GPT-J sur le jeu de données CounterFact. La figure 2 ci-dessous montre l'impact sur la perte de classification de l'ensemble de données suite à l'application de différents niveaux de réduction de rang à chaque matrice de l'architecture Transformer. Chacune des couches du transformateur se compose d'un petit MLP à deux couches, avec les matrices d'entrée et de sortie affichées séparément. Différentes couleurs représentent différents pourcentages de composants supprimés.

Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique.

En ce qui concerne l'amélioration de la précision et de la robustesse de l'interprétation, comme le montrent la figure 2 ci-dessus et le tableau 1 ci-dessous, les chercheurs ont constaté que lors de la réduction de rang sur une seule couche, le fait que le modèle GPT-J fonctionnait bien sur la Ensemble de données CounterFact La précision est passée de 13,1 % à 24,0 %. Il est important de noter que ces améliorations sont uniquement le résultat d’une réduction de rang et n’impliquent aucune formation supplémentaire ni ajustement du modèle.

Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique.

Les faits qui seront restaurés dans l'ensemble de données grâce à une réduction de classement sont devenus une préoccupation pour les chercheurs. Les chercheurs ont découvert que le fait de récupération par réduction de rang apparaissait rarement dans les données, comme le montre la figure 3

Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique.

Que stockent les composants d'ordre supérieur ? Les chercheurs utilisent des composants d'ordre élevé pour approximer la matrice de poids finale, contrairement à LASER, ils n'utilisent pas de composants d'ordre inférieur pour l'approximation, comme le montre la figure 5 (a). Lors de l'approximation de la matrice en utilisant différents nombres de composants d'ordre supérieur, ils ont mesuré la similarité moyenne en cosinus entre les réponses vraies et prédites, comme le montre la figure 5(b)

Réduisez le rang du Transformer pour améliorer les performances tout en conservant le LLM sans réduire la suppression de plus de 90 % des composants dans une couche spécifique.

Enfin, les chercheurs ont évalué leurs résultats. LLM sur plusieurs tâches de compréhension linguistique. Pour chaque tâche, ils ont évalué les performances du modèle en générant trois mesures : précision, précision de classification et perte. Comme le montre le tableau 1 ci-dessus, même si la réduction du classement est importante, elle n'entraînera pas une diminution de la précision du modèle, mais elle peut améliorer les performances du modèle.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:jiqizhixin.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal