Maison Périphériques technologiques IA Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous n'aurez pas peur.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous n'aurez pas peur.

Aug 06, 2024 am 01:46 AM
工程 ExCP

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.
La rubrique AIxiv est une rubrique où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com

Les auteurs de cet article sont tous du laboratoire Huawei Noah. Le premier auteur est Li Wenshuo et les auteurs correspondants sont Wang Yunhe et Chen. Xinghao. Ces dernières années, les équipes concernées ont publié un certain nombre d'ouvrages représentatifs lors de conférences de premier plan telles que ICML, CVPR, NeurIPS, ICCV et ECCV. Elles ont produit de riches résultats dans des domaines tels que les grands modèles de langage efficaces et les modèles visuels, et ont coopéré avec. des universités et des instituts de recherche scientifique de renom sont étendus.

En tant que « roi du trafic » bien mérité dans l'industrie et le monde universitaire actuels de l'IA, les grands modèles ont attiré un grand nombre d'universitaires et d'entreprises à investir des ressources dans la recherche et la formation. À mesure que l’échelle augmente, les problèmes de système et d’ingénierie sont devenus des problèmes inévitables dans la formation de grands modèles. Par exemple, au cours de la formation de 54 jours de Llama3.1, le système s'est écrasé 466 fois, en moyenne une fois toutes les 2,78 heures !

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

Ensuite, des contrôles de stockage fréquents sont très nécessaires. Mais le stockage des points de contrôle est aussi un grand projet en soi.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

Meta a déployé de nombreux efforts pour accélérer le temps de point de contrôle du stockage et augmenter la fréquence de stockage afin de lutter contre les pannes fréquentes du système. Mais un stockage fréquent signifie également une surcharge importante en ressources de stockage. Son cluster de formation est équipé d'un SSD de 240 Po pour relever ce défi. Le coût du stockage à lui seul est de 100 millions de yuans !

La méthode ExCP de Huawei Noah a vu le jour. Afin de faire face à l'énorme surcharge causée par le stockage, ils ont proposé une technologie de point de contrôle de compression extrême, qui peut compresser le modèle 70 fois sans perte, réduisant considérablement la surcharge de stockage pendant la formation.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

Le code est actuellement open source et publié sous le framework Apache 2.0. Certains partenaires du problème ont reproduit avec succès les résultats.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

  • Adresse de l'article : https://arxiv.org/abs/2406.11257
  • Adresse de l'entrepôt : https://github.com/Gaffey/ExCP

La méthode est également très bonne innovation, l'article mentionne deux concepts importants. L'un consiste à utiliser les informations résiduelles des points de contrôle dans la formation pour obtenir un taux d'élagage plus élevé grâce à la rareté des informations sur les séries chronologiques. L'autre consiste à combiner l'optimiseur et les poids pour la compression ; pour obtenir un taux de compression global élevé.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

Méthode spécifique

1. Point de contrôle résiduel

Pendant le processus d'entraînement, les paramètres actuels peuvent être considérés comme les poids stockés dans le point de contrôle précédent plus les successifs. La somme des mises à jour du gradient au cours des itérations est relativement rare et contient moins d'informations. Par conséquent, la compression de ce résidu peut obtenir un meilleur taux de compression. Au contraire, l'élan stocké dans l'optimiseur est la moyenne glissante des premier et deuxième instants du gradient. Pour le premier instant, le paramètre par défaut de la moyenne glissante est de 0,9, qui varie de centaines à milliers. il n'y a pas beaucoup de corrélation avec le contenu stocké dans le dernier point de contrôle, donc l'optimiseur compresse directement sa propre valeur plutôt que le résidu. Le point de contrôle final à compresser est exprimé par

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

2. Compression conjointe de l'élan avec optimiseur de poids

Les travaux existants liés à la compression du modèle se concentrent généralement uniquement sur les performances d'inférence du modèle, ou sur la taille du point de contrôle de stockage final du modèle, mais ne paient pas. attention à l'espace de stockage du modèle pendant tout le processus de formation. Par conséquent, les travaux existants ne font que compresser les poids, ignorant le fait que les optimiseurs courants tels qu'Adam stockent en réalité une quantité de mouvement deux fois supérieure au nombre de poids. D'une part, ce travail compresse les deux ensemble, améliorant considérablement le taux de compression global ; d'autre part, il utilise également la corrélation entre les poids et l'élan de l'optimiseur pour améliorer davantage le taux de compression de chacun.

Élagage du poids : Puisque le poids de l'élagage est la valeur résiduelle, le deuxième moment de l'optimiseur peut représenter approximativement l'amplitude du changement de la valeur résiduelle du poids au cours de la période de temps écoulée, donc le deuxième moment de l'optimiseur l'élan peut être utilisé. Le moment d'ordre est utilisé comme indicateur pour déterminer le rapport d'élagage des différentes couches. La stratégie d'élagage est présentée dans la formule suivante

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.où W et Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur. représentent respectivement le poids et le moment de second ordre.


Élagage dynamique de l'optimiseur : Pour l'élagage dynamique, vous pouvez utiliser le moment de premier ordre comme indicateur pour effectuer l'élagage. Il y a une brève preuve de convergence dans le document. Dans le même temps, si le poids d'une position a été élagué, l'élan de l'optimiseur de la position correspondante doit également être traité simultanément, donc la stratégie d'élagage est celle indiquée dans la formule suivante

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur. représente le premier- moment de la commande.

3. Processus de compression global

Le processus de compression global est tel que montré dans l'algorithme 1, et les étapes de calcul du poids résiduel/compression conjointe/quantification non uniforme/compression de codage sont séquentielles. effectuée pour obtenir le résultat final. Compresser les résultats.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

Le processus de récupération du fichier de point de contrôle complet est comme indiqué dans l'algorithme 2. Après décompression, le résultat en virgule flottante est d'abord récupéré à partir du livre de codes et de l'indice stocké après une quantification non uniforme, puis comparé au benchmark. Les poids (le poids original du point de contrôle précédent ou le poids reconstitué récupéré) sont ajoutés pour obtenir le dossier complet du point de contrôle. Le processus de restauration des fichiers de points de contrôle dans l'ensemble du processus de formation est tel qu'illustré dans l'algorithme 3. Une fois la formation terminée, seules les graines aléatoires des poids d'initialisation et les résultats de compression stockés à chaque point de contrôle sont enregistrés, puis les points de contrôle sont restaurés dans séquence pour obtenir l'intégralité Une séquence de points de contrôle à partir de laquelle un ou plusieurs points de contrôle peuvent être sélectionnés pour reprendre l'entraînement/les tests, etc.

Résultats expérimentaux

L'article évalue non seulement de grands modèles de langage, cette méthode peut également obtenir de bons résultats sur des modèles visuels plus grands tels que ViT-L32.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

L'expérience d'ablation montre également que l'utilisation de la taille résiduelle réduit considérablement les pertes causées par la taille.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

L'article fournit également des exemples de questions et réponses pour les grands modèles de langage avant et après la compression. On peut voir que la compression elle-même n'endommage pas la capacité de questions et réponses du modèle.

Compression ultime 70 fois supérieure ! Peu importe le nombre de points de contrôle que vous disposez sur un grand modèle, vous naurez pas peur.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1664
14
Tutoriel PHP
1269
29
Tutoriel C#
1249
24
L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours Jul 17, 2024 am 01:56 AM

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Jun 24, 2024 pm 03:04 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. Jul 15, 2024 pm 03:59 PM

Les modèles linguistiques peuvent-ils vraiment être utilisés pour la prédiction de séries chronologiques ? Selon la loi des gros titres de Betteridge (tout titre d'actualité se terminant par un point d'interrogation peut recevoir une réponse « non »), la réponse devrait être non. Le fait semble être vrai : un LLM aussi puissant ne peut pas bien gérer les données de séries chronologiques. Les séries chronologiques, c'est-à-dire les séries chronologiques, comme leur nom l'indique, font référence à un ensemble de séquences de points de données disposées par ordre temporel. L'analyse des séries chronologiques est essentielle dans de nombreux domaines, notamment la prévision de la propagation des maladies, l'analyse du commerce de détail, la santé et la finance. Dans le domaine de l'analyse des séries chronologiques, de nombreux chercheurs ont récemment étudié comment utiliser les grands modèles linguistiques (LLM) pour classer, prédire et détecter les anomalies dans les séries chronologiques. Ces articles supposent que les modèles de langage capables de gérer les dépendances séquentielles dans le texte peuvent également se généraliser aux séries chronologiques.

Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Jul 17, 2024 am 02:46 AM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com. Introduction Ces dernières années, l'application de grands modèles de langage multimodaux (MLLM) dans divers domaines a connu un succès remarquable. Cependant, en tant que modèle de base pour de nombreuses tâches en aval, le MLLM actuel se compose du célèbre réseau Transformer, qui

See all articles