Maison > Périphériques technologiques > IA > Comprendre l'évolution de Chatgpt: Partie 3- Insignes de Codex et Instructgpt

Comprendre l'évolution de Chatgpt: Partie 3- Insignes de Codex et Instructgpt

王林
Libérer: 2025-02-26 02:58:10
original
310 Les gens l'ont consulté

Cet article plonge dans les aspects pratiques des modèles de grande langue (LLM) à réglage fin, en se concentrant sur le codex et en instructGpt comme des exemples principaux. C'est le troisième d'une série explorant les modèles GPT, s'appuyant sur les discussions précédentes sur la pré-formation et la mise à l'échelle.

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

Le réglage fin est crucial car bien que les LLM pré-formés soient polyvalents, ils ne sont souvent pas des modèles spécialisés adaptés à des tâches spécifiques. En outre, même des modèles puissants comme GPT-3 peuvent lutter contre les instructions complexes et le maintien de la sécurité et des normes éthiques. Cela nécessite des stratégies de réglage fin.

L'article met en évidence deux défis clés du réglage fin: l'adaptation aux nouvelles modalités (comme l'adaptation du Codex à la génération de code) et l'alignement du modèle avec les préférences humaines (comme démontré par InstructGpt). Les deux nécessitent un examen attentif de la collecte de données, de l'architecture du modèle, des fonctions objectives et des mesures d'évaluation.

Codex: affineur pour la génération de code

L'article met l'accent sur l'insuffisance des mesures traditionnelles comme le score BLEU pour évaluer la génération de code. Il introduit la "correction fonctionnelle" et la métrique pass @ k , offrant une méthode d'évaluation plus robuste. La création de l'ensemble de données Humaneval, comprenant des problèmes de programmation manuscrits avec des tests unitaires, est également mise en évidence. Les stratégies de nettoyage des données spécifiques au code sont discutées, ainsi que l'importance d'adapter les jetons pour gérer les caractéristiques uniques des langages de programmation (par exemple, codage des espaces blancs). L'article présente des résultats démontrant les performances supérieures de Codex par rapport à GPT-3 sur Humaneval et explore l'impact de la taille et de la température du modèle sur les performances.

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

instructgpt et chatgpt: alignement avec les préférences humaines

L'article définit l'alignement comme le modèle présentant une utilité, une honnêteté et une insuffisance. Il explique comment ces qualités sont traduites en aspects mesurables comme l'enseignement suivant, taux d'hallucination et biais / toxicité. L'utilisation de l'apprentissage du renforcement de la rétroaction humaine (RLHF) est détaillée, décrivant les trois étapes: collectionner les commentaires humains, former un modèle de récompense et optimiser la politique en utilisant l'optimisation de la politique proximale (PPO). L'article souligne l'importance du contrôle de la qualité des données dans le processus de collecte de rétroaction humaine. Les résultats présentant l'alignement amélioré d'InstructGpt, l'hallucination réduite et l'atténuation des régressions de performance sont présentés.

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

Understanding the Evolution of ChatGPT: Part 3- Insights from Codex and InstructGPT

Résumé et meilleures pratiques

L'article conclut en résumant des considérations clés pour les LLM de réglage fin, notamment la définition des comportements souhaités, l'évaluation des performances, la collecte et le nettoyage des données, l'adaptation de l'architecture du modèle et l'atténuation des conséquences négatives potentielles. Il encourage un examen attentif du réglage de l'hyperparamètre et met l'accent sur la nature itérative du processus de réglage fin.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal