Maison Périphériques technologiques IA Accélération sans perte jusqu'à 5x, EAGLE-2 permet au RTX 3060 de générer plus rapidement que l'A100

Accélération sans perte jusqu'à 5x, EAGLE-2 permet au RTX 3060 de générer plus rapidement que l'A100

Jul 19, 2024 pm 01:12 PM
工程 échantillonnage spéculatif EAGLE-2

无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100
La rubrique AIxiv est une rubrique où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com

Li Yuhui : Master de l'École d'intelligence, Université de Pékin, sous la direction des professeurs Zhang Hongyang et Zhang Chao, sa direction de recherche est accélération et alignement des grands modèles, et est actuellement à la recherche d'opportunités d'emploi dans la 25e classe
Wei Fangyun : chercheur au Microsoft Asia Research Institute, l'orientation de la recherche est l'intelligence incarnée, la génération d'images et les agents d'IA

Zhang Chao : Chercheur à la Peking University School of Intelligence, la direction de la recherche est la vision par ordinateur et l'apprentissage automatique

Zhang Hongyang : professeur adjoint à la School of Computer Science and Vector Research Institute, Université de Waterloo, la direction de la recherche est l'accélération LLM et la sécurité de l'IA

Le décodage autorégressif est devenu le standard de facto pour les grands modèles de langage (LLM), grands modèles de langage. Chaque calcul direct nécessite l'accès à tous ses paramètres, mais un seul jeton peut être obtenu, ce qui rend sa génération coûteuse et lente.

Aujourd'hui, un article intitulé "EAGLE-2: Faster Inference of Language Models with Dynamic Draft Trees" propose un échantillonnage spéculatif dynamique d'arbre de brouillon, qui ajuste dynamiquement la structure de l'arbre de brouillon en fonction de la confiance du modèle de brouillon, avec le plus élevé, il peut augmenter la vitesse d'inférence des grands modèles de langage de 5 fois sans modifier la distribution de sortie des grands modèles de langage, garantissant ainsi l'absence de perte.

无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100

  • Lien papier : https://arxiv.org/pdf/2406.16858
  • Lien du projet : https://github.com/SafeAILab/EAGLE
  • Lien démo : https : //huggingface.co/spaces/yuhuili/EAGLE-2

L'effet d'accélération d'EAGLE-2 sur l'ensemble de données de dialogue multi-tours MT-bench (l'image du haut est la génération gourmande, l'image du bas est génération d'échantillonnage) :
无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100

无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100

En utilisant EAGLE-2, la vitesse d'inférence de 2 RTX 3060 (300 $) peut dépasser A100 (10 000 $). 无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100
Contexte

L'échantillonnage spéculatif utilise un petit modèle pour générer rapidement des brouillons. Le grand modèle de langage original peut vérifier l'exactitude du brouillon grâce à un calcul avancé et prendre le brouillon correct comme sortie. . Cela génère plusieurs jetons à la fois et garantit aucune perte. EAGLE est une amélioration par rapport à l’échantillonnage spéculatif. Il effectue une autorégression au niveau des fonctionnalités plus régulières plutôt qu'au niveau des jetons, et saisit en même temps les résultats d'échantillonnage (jetons avec une avance de temps) pour éliminer l'incertitude et améliorer considérablement la précision du projet de modèle.

Jusqu'à présent, EAGLE se classe premier dans le test tiers Spec-Bench (https://github.com/hemingkx/Spec-Bench/blob/main/Leaderboard.md).

Idée

Des méthodes telles que EAGLE et Medusa utilisent des arbres de brouillon statiques, en supposant implicitement que le taux d'acceptation des jetons de brouillon est indépendant du contexte
无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100
. Lorsque ce qui précède est "10+2", le prochain jeton est difficile à prédire. EAGLE ajoute deux jetons candidats à cette position pour augmenter le taux de réussite du draft. Un seul parmi "10+2=" et "10+2+" est. correct. Lorsque ce qui précède est "10+2=", le jeton suivant est évidemment "1", mais EAGLE utilise une structure de brouillon statique et ajoute toujours deux candidats "1" et "3" n'y figurent pas. peut être un gaspillage lors de l’inspection de grands modèles de langage. EAGLE-2 vise à résoudre ce problème. Comme le montre la figure ci-dessous, lorsque ce qui précède est "10+2=", EAGLE-2 n'ajoute qu'un seul jeton candidat "1" et utilise le jeton enregistré pour approfondir l'arborescence de brouillon. , de sorte que "10+2=12" passe l'inspection du grand modèle de langage et qu'EAGLE-2 puisse générer plus de jetons à la fois.
无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100
Les auteurs d'EAGLE-2 ont effectué un test simple sur l'ensemble de données Alpaca. La figure ci-dessous montre le taux d'acceptation des jetons de draft à différentes positions P1-P6 dans la figure de gauche représente la position, et la ligne horizontale. dans la figure de droite, les coordonnées des axes correspondent. Les résultats expérimentaux montrent que les taux d'acceptation des jetons de brouillon à la même position sont également significativement différents, ce qui montre que l'utilisation d'arbres de brouillon dynamiques peut obtenir de meilleurs résultats que les arbres de brouillon statiques.
无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100
Dans l'exemple ci-dessus, EAGLE-2 détermine la structure de l'arbre de brouillon en fonction de la difficulté de prédire le jeton de brouillon. Un calcul précis de la difficulté (taux d'acceptation) nécessite les résultats de calcul du grand modèle de langage original, ce qui viole la réduction de l'échantillonnage spéculatif. Intention initiale d'accéder aux grands modèles de langage originaux. Heureusement, la confiance dans le projet de modèle d'EAGLE est fortement positivement corrélée au taux d'acceptation (difficulté). La figure ci-dessous montre le taux d'acceptation moyen des projets de jetons à différents intervalles de confiance du projet de modèle, la ligne pointillée rouge reliant (0,0) et (1,1). Il s’ensuit que le niveau de confiance du projet de modèle peut être utilisé comme une approximation valable du taux d’acceptation.

无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100

Méthode

EAGLE-2 comprend deux étapes, l'expansion et le réarrangement. L'étape d'expansion approfondit et agrandit l'arbre de brouillon, et l'étape de réarrangement élague l'arbre de brouillon et supprime certains nœuds (jetons).

Afin de garantir l'absence de perte, la prémisse pour qu'un brouillon de jeton soit accepté est que tous ses nœuds ancêtres sont acceptés, donc EAGLE-2 définit la valeur d'un nœud comme le produit de celui-ci et le taux d'acceptation de son ancêtre, en utilisant le produit du niveau de confiance pour obtenir une approximation.

Dans la phase d'expansion, EAGLE-2 sélectionne les m nœuds (jetons) avec la valeur la plus élevée dans la dernière couche de l'arbre de brouillon pour l'expansion. Ces jetons sont introduits dans le modèle brouillon, puis la sortie du modèle brouillon est connectée au nœud d'entrée en tant que nœud enfant, approfondissant et élargissant l'arborescence brouillon. Dans la phase de réorganisation, EAGLE-2 réorganise l'ensemble de l'arborescence de brouillon en fonction de la valeur, en conservant les n premiers nœuds (jetons). La confiance du draft token est comprise entre 0 et 1. Lorsque les deux nœuds ont la même valeur, les nœuds superficiels sont conservés en premier. Par conséquent, l'arborescence draft conservée après réarrangement doit être connectée, assurant la cohérence sémantique. Après le réarrangement, l'arborescence brouillon devient plus petite, réduisant ainsi la charge de calcul de la vérification originale du grand modèle de langage. Afin de garantir l'exactitude des résultats du calcul, le masque d'attention doit être ajusté pour garantir que chaque jeton ne peut voir que ses nœuds ancêtres et n'est pas affecté par les autres branches. Vous trouverez ci-dessous un exemple simple.
无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100
Les cases jaunes de l'étape Expand représentent les nœuds sélectionnés pour l'expansion, et les cases vertes sont les prédictions du projet de modèle lorsque ces nœuds sont utilisés comme entrée. Les cases bleues de l'étape Rerank représentent les nœuds retenus, qui sont ensuite aplatis en une seule dimension en tant qu'entrée dans le grand modèle de langage d'origine. EAGLE-2 ajuste le masque d'attention en fonction de la structure de l'arbre. Par exemple, "a" ne peut voir que ses ancêtres "It" et "is", mais ne peut pas voir les "has" d'une autre branche. EAGLE-2 ajuste également le codage de position pour garantir la cohérence avec le décodage autorégressif standard.

Expérience

EAGLE-2 utilise MT-bench, Humaneval, GSM8K, Alpaca, CNN/ Des expériences ont été menées sur l'ensemble de données DM, Natural Questions et comparées à 6 méthodes d'échantillonnage spéculatives avancées (SpS, PLD, Méduse, Lookahead, Hydra, EAGLE).
无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100

无损加速最高5x,EAGLE-2让RTX 3060的生成速度超过A100

Speedup dans le tableau est le taux d'accélération et τ est la longueur d'acceptation moyenne, qui est le nombre de jetons que le grand modèle de langage d'origine peut générer pour chaque calcul direct. EAGLE-2 peut générer environ 4 à 5 jetons pour chaque calcul direct, tandis que le décodage autorégressif génère 1 jeton à chaque fois. Par conséquent, EAGLE-2 accélère considérablement la génération de grands modèles de langage, avec un taux d'accélération de 2,5x-5x. L'accélération et la longueur d'acceptation sont les plus élevées sur la tâche de génération de code (ensemble de données Humaneval), car il existe un grand nombre de modèles déterministes dans le code et les brouillons sont plus faciles à réaliser. Pour toutes les tâches et tous les grands modèles de langage, EAGLE-2 présente le taux d'accélération et la durée d'acceptation moyenne les plus élevés, bien meilleurs que les autres méthodes.

Applications

EAGLE-2 est également utilisé dans l'industrie et intégré à Intel/intel-extension-for-transformers, etc.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1667
14
Tutoriel PHP
1273
29
Tutoriel C#
1255
24
L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours Jul 17, 2024 am 01:56 AM

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Jun 24, 2024 pm 03:04 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. Jul 15, 2024 pm 03:59 PM

Les modèles linguistiques peuvent-ils vraiment être utilisés pour la prédiction de séries chronologiques ? Selon la loi des gros titres de Betteridge (tout titre d'actualité se terminant par un point d'interrogation peut recevoir une réponse « non »), la réponse devrait être non. Le fait semble être vrai : un LLM aussi puissant ne peut pas bien gérer les données de séries chronologiques. Les séries chronologiques, c'est-à-dire les séries chronologiques, comme leur nom l'indique, font référence à un ensemble de séquences de points de données disposées par ordre temporel. L'analyse des séries chronologiques est essentielle dans de nombreux domaines, notamment la prévision de la propagation des maladies, l'analyse du commerce de détail, la santé et la finance. Dans le domaine de l'analyse des séries chronologiques, de nombreux chercheurs ont récemment étudié comment utiliser les grands modèles linguistiques (LLM) pour classer, prédire et détecter les anomalies dans les séries chronologiques. Ces articles supposent que les modèles de langage capables de gérer les dépendances séquentielles dans le texte peuvent également se généraliser aux séries chronologiques.

Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Jul 17, 2024 am 02:46 AM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com. Introduction Ces dernières années, l'application de grands modèles de langage multimodaux (MLLM) dans divers domaines a connu un succès remarquable. Cependant, en tant que modèle de base pour de nombreuses tâches en aval, le MLLM actuel se compose du célèbre réseau Transformer, qui

See all articles