Maison Périphériques technologiques IA Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Feb 15, 2024 pm 07:00 PM
rlhf 工程 Université Carnegie-Mellon spo

L'effet est plus stable et la mise en œuvre est plus simple.

Le succès des grands modèles de langage (LLM) est indissociable de « l'apprentissage par renforcement basé sur le feedback humain (RLHF) ». Le RLHF peut être grossièrement divisé en deux étapes. Premièrement, étant donné une paire de comportements préférés et non préférés, un modèle de récompense est formé pour attribuer un score plus élevé au premier en classant la cible. Cette fonction de récompense est ensuite optimisée grâce à une sorte d’algorithme d’apprentissage par renforcement. Toutefois, des éléments clés du modèle de récompense peuvent avoir des effets indésirables.

Des chercheurs de l'Université Carnegie Mellon (CMU) et de Google Research ont proposé conjointement une nouvelle méthode RLHF simple, théoriquement rigoureuse et expérimentalement efficace : l'optimisation des préférences de jeu automatique (optimisation des préférences de jeu personnel (SPO). Cette approche élimine les modèles de récompense et ne nécessite pas de formation contradictoire.

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Article : Une approche minimaximaliste de l'apprentissage par renforcement à partir de la rétroaction humaine
Adresse de l'article : https://arxiv.org/abs/2401.04056

Introduction à la méthode

SPO Le les méthodes comprennent principalement deux aspects. Premièrement, cette étude élimine véritablement le modèle de récompense en construisant le RLHF comme un jeu à somme nulle, le rendant plus capable de gérer les préférences bruyantes et non markoviennes qui apparaissent souvent dans la pratique. Deuxièmement, en exploitant la symétrie du jeu, cette étude démontre qu’un seul agent peut simplement être entraîné de manière autonome, éliminant ainsi le besoin d’un entraînement contradictoire instable.

En pratique, cela équivaut à échantillonner plusieurs trajectoires auprès de l'agent, à demander à l'évaluateur ou au modèle de préférence de comparer chaque paire de trajectoires et à fixer la récompense en fonction du taux de réussite de la trajectoire.
Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire
SPO évite la modélisation des récompenses, les erreurs composées et la formation contradictoire. En établissant le concept de gagnant minmax à partir de la théorie du choix social, cette étude construit le RLHF comme un jeu à somme nulle à deux et exploite la symétrie de la matrice des gains du jeu pour démontrer qu'un seul agent peut être simplement entraîné contre lui-même.

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

L'étude analyse également les caractéristiques de convergence de SPO et prouve que lorsque la fonction de récompense potentielle existe, SPO peut converger vers la politique optimale à une vitesse rapide comparable aux méthodes standards.

Expériences

Cette étude démontre que SPO fonctionne mieux que les méthodes basées sur un modèle de récompense sur une série de tâches de contrôle continu avec des fonctions de préférence réalistes. SPO est capable d'apprendre des échantillons plus efficacement que les méthodes basées sur des modèles de récompense dans divers paramètres de préférence, comme le montre la figure 2 ci-dessous.

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Cette étude compare la SPO à la méthode itérative de modélisation des récompenses (RM) à partir de plusieurs dimensions, visant à répondre à 4 questions :

  1. Lorsque des préférences intransitives sont confrontées, la SPO peut-elle calculer MW ?
  2. SPO peut-il égaler ou dépasser l'efficacité de l'échantillon RM sur des problèmes avec des stratégies gagnantes/optimales uniques de Copeland ?
  3. Dans quelle mesure SPO est-il robuste aux préférences aléatoires ?
  4. SPO peut-il gérer les préférences non markoviennes ?

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

En termes de préférence de récompense maximale, de préférence de bruit et de préférence non markovienne, les résultats expérimentaux de cette étude sont présentés respectivement dans les figures 6, 7 et 8 :

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Google propose une nouvelle méthode RLHF : éliminer les modèles de récompense et éliminer le besoin de formation contradictoire

Les lecteurs intéressés peuvent lire le texte original de l'article pour en savoir plus sur le contenu de la recherche.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
2 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Repo: Comment relancer ses coéquipiers
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Comment obtenir des graines géantes
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Combien de temps faut-il pour battre Split Fiction?
3 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Jun 24, 2024 pm 03:04 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours Jul 17, 2024 am 01:56 AM

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

Génération vidéo illimitée, planification et prise de décision, diffusion, intégration forcée de la prédiction du prochain jeton et diffusion de la séquence complète Génération vidéo illimitée, planification et prise de décision, diffusion, intégration forcée de la prédiction du prochain jeton et diffusion de la séquence complète Jul 23, 2024 pm 02:05 PM

Actuellement, les modèles linguistiques autorégressifs à grande échelle utilisant le prochain paradigme de prédiction de jetons sont devenus populaires partout dans le monde. Dans le même temps, un grand nombre d'images et de vidéos synthétiques sur Internet nous ont déjà montré la puissance des modèles de diffusion. Récemment, une équipe de recherche de MITCSAIL (dont Chen Boyuan, doctorant au MIT) a intégré avec succès les puissantes capacités du modèle de diffusion en séquence complète et du prochain modèle de jeton, et a proposé un paradigme de formation et d'échantillonnage : le forçage de diffusion (DF ). Titre de l'article : DiffusionForcing:Next-tokenPredictionMeetsFull-SequenceDiffusion Adresse de l'article : https://

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

La formation Axiom permet au LLM d'apprendre le raisonnement causal : le modèle à 67 millions de paramètres est comparable au niveau de mille milliards de paramètres GPT-4. La formation Axiom permet au LLM d'apprendre le raisonnement causal : le modèle à 67 millions de paramètres est comparable au niveau de mille milliards de paramètres GPT-4. Jul 17, 2024 am 10:14 AM

Montrez la chaîne causale à LLM et il pourra apprendre les axiomes. L'IA aide déjà les mathématiciens et les scientifiques à mener des recherches. Par exemple, le célèbre mathématicien Terence Tao a partagé à plusieurs reprises son expérience de recherche et d'exploration à l'aide d'outils d'IA tels que GPT. Pour que l’IA soit compétitive dans ces domaines, des capacités de raisonnement causal solides et fiables sont essentielles. La recherche présentée dans cet article a révélé qu'un modèle Transformer formé sur la démonstration de l'axiome de transitivité causale sur de petits graphes peut se généraliser à l'axiome de transitivité sur de grands graphes. En d’autres termes, si le Transformateur apprend à effectuer un raisonnement causal simple, il peut être utilisé pour un raisonnement causal plus complexe. Le cadre de formation axiomatique proposé par l'équipe est un nouveau paradigme pour l'apprentissage du raisonnement causal basé sur des données passives, avec uniquement des démonstrations.

See all articles