Maison > Périphériques technologiques > IA > Formation de grands modèles de langue: de TRPO à Grpo

Formation de grands modèles de langue: de TRPO à Grpo

王林
Libérer: 2025-02-26 04:41:08
original
990 Les gens l'ont consulté

Deepseek: une plongée profonde dans l'apprentissage du renforcement pour LLMS

Le succès récent de Deepseek, réalisant des performances impressionnantes à des coûts inférieurs, met en évidence l'importance des méthodes de formation du modèle grand langage (LLM). Cet article se concentre sur l'aspect d'apprentissage du renforcement (RL), Explore Trpo, PPO et les algorithmes GRPO plus récents. Nous minimiserons les mathématiques complexes pour la rendre accessible, en supposant une familiarité de base avec l'apprentissage automatique, l'apprentissage en profondeur et les LLM.

Trois piliers de la formation LLM

Training Large Language Models: From TRPO to GRPO

La formation LLM implique généralement trois phases clés:

  1. Pré-formation: Le modèle apprend à prédire le jeton suivant dans une séquence à partir de jetons précédents en utilisant un ensemble de données massif.
  2. Fonction d'adaptation supervisée (SFT): Les données ciblées affinent le modèle, l'alignant avec des instructions spécifiques.
  3. Apprentissage par renforcement (RLHF): Cette étape, l'objectif de cet article, affine davantage les réponses à mieux faire correspondre les préférences humaines grâce à une rétroaction directe.

Fondamentaux d'apprentissage du renforcement

Training Large Language Models: From TRPO to GRPO

L'apprentissage du renforcement implique un agent interagir avec un environnement . L'agent existe dans un État spécifique , en prenant actions pour passer à de nouveaux États. Chaque action se traduit par une récompense de l'environnement, guidant les actions futures de l'agent. Pensez à un robot naviguant dans un labyrinthe: sa position est l'état, les mouvements sont des actions, et atteindre la sortie fournit une récompense positive.

rl dans les LLMS: un look détaillé

Training Large Language Models: From TRPO to GRPO

Dans la formation LLM, les composants sont:

  • Agent: le LLM lui-même.
  • Environnement: Facteurs externes comme les invites utilisateur, les systèmes de rétroaction et les informations contextuelles.
  • Actions: Les jetons génèrent le LLM en réponse à une requête.
  • État: la requête actuelle et les jetons générés (réponse partielle).
  • Récompenses: Habituellement déterminées par un modèle de récompense distinct formé sur des données annotées par l'homme, des réponses de classement aux scores d'attribution. Les réponses de meilleure qualité reçoivent des récompenses plus élevées. Des récompenses plus simples et basées sur des règles sont possibles dans des cas spécifiques, tels que Deepseekmath.

La politique détermine l'action à prendre. Pour un LLM, il s'agit d'une distribution de probabilité sur les jetons possibles, utilisés pour goûter le jeton suivant. La formation RL ajuste les paramètres de la politique (poids du modèle) pour favoriser les jetons à récompense plus élevé. La politique est souvent représentée comme:

Training Large Language Models: From TRPO to GRPO

Le cœur de RL est de trouver la politique optimale. Contrairement à l'apprentissage supervisé, nous utilisons des récompenses pour guider les ajustements de politique.

trpo (optimisation des politiques de la région de confiance)

Training Large Language Models: From TRPO to GRPO

trpo utilise une fonction d'avantage, analogue à la fonction de perte dans l'apprentissage supervisé, mais dérivé de récompenses:

Training Large Language Models: From TRPO to GRPO

trpo maximise un objectif de substitution, contraint d'empêcher les écarts de politique importants de l'itération précédente, assurant la stabilité:

Training Large Language Models: From TRPO to GRPO

PPO (optimisation de la politique proximale)

PPO, désormais préféré pour les LLM comme Chatgpt et Gemini, simplifie Trpo en utilisant un objectif de substitution coupé, limitant implicitement les mises à jour de la politique et améliorant l'efficacité de calcul. La fonction d'objectif PPO est:

Training Large Language Models: From TRPO to GRPO

grpo (optimisation de la politique relative du groupe)

Training Large Language Models: From TRPO to GRPO

GRPO rationalise la formation en éliminant le modèle de valeur séparé. Pour chaque requête, il génère un groupe de réponses et calcule l'avantage en tant que score Z basé sur leurs récompenses:

Training Large Language Models: From TRPO to GRPO

Cela simplifie le processus et est bien adapté à la capacité de LLMS à générer plusieurs réponses. GRPO intègre également un terme de divergence KL, en comparant la politique actuelle à une politique de référence. La formulation GRPO finale est:

Training Large Language Models: From TRPO to GRPO

Conclusion

L'apprentissage du renforcement, en particulier le PPO et le GRPO plus récent, est crucial pour la formation LLM moderne. Chaque méthode s'appuie sur les fondamentaux de RL, offrant différentes approches pour équilibrer la stabilité, l'efficacité et l'alignement humain. Le succès de Deepseek tire parti de ces progrès, ainsi que d'autres innovations. L'apprentissage du renforcement est sur le point de jouer un rôle de plus en plus dominant dans la progression des capacités LLM.

Références: (Les références restent les mêmes, juste reformatées pour une meilleure lisibilité)

  • [1] "Fondations des modèles de grande langue", 2025. https://www.php.cn/link/fbf8ca43dcc014c2c94549d6b8ca0375
  • [2] "Apprentissage par renforcement". Enaris. Disponible sur: https://www.php.cn/link/20e169b48c8f869887e2bbe1c5c3ea65
  • [3] Y. Gokhale. «Introduction à LLMS et à la partie générative AI 5: RLHF» [4] L. Weng. «Un aperçu de l'apprentissage par renforcement», 2018. Disponible sur: https://www.php.cn/link/fc42bad715bcb9767ddd95a239552434
  • [5] "Deepseek-R1: la capacité de raisonnement d'incitation dans les LLM via l'apprentissage par renforcement", 2025.
  • https://www.php.cn/link/d0ae1e3078807c85d78d64f4ded5cdcb >
  • [6] "Deepseekmath: repousser les limites du raisonnement mathématique dans les modèles de langage ouvert", 2025.
  • https://www.php.cn/link/f8b18593cdbb1ce289330560a44e33aa >
  • [7] "Trust Region Policy Optimization", 2017.
  • https://www.php.cn/link/77a44d5cfb595b3545d61aa742268c9b

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal