Maison > Périphériques technologiques > IA > Au-delà de PaLM ! Un maître de l'Université de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Au-delà de PaLM ! Un maître de l'Université de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

WBOY
Libérer: 2023-04-12 15:37:09
avant
1092 Les gens l'ont consulté

​Les modèles de langage à grande échelle peuvent être considérés comme la pierre angulaire de la technologie moderne de traitement du langage naturel, tels que GPT-3 avec 175 milliards de paramètres et PaLM avec 540 milliards de paramètres pré-entraînés, offrant des capacités d'apprentissage très puissantes en quelques étapes. tâches en aval.

Mais les tâches de raisonnement restent un problème difficile, en particulier les questions qui nécessitent un raisonnement en plusieurs étapes pour obtenir la bonne réponse.

Récemment, des chercheurs ont découvert que tant qu'une invite correctement conçue peut guider le modèle pour effectuer un raisonnement en plusieurs étapes afin de générer la réponse finale, cette méthode est également appelée raisonnement en chaîne de pensée.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

La technologie de la chaîne de pensée a augmenté la précision de 17,9 % à 58,1 % sur le test arithmétique GSM8K, et le mécanisme d'auto-cohérence introduit plus tard a encore augmenté la précision à 74,4 %

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Simple Par exemple, des tâches de raisonnement complexes ont généralement plusieurs chemins de raisonnement qui peuvent conduire à des réponses correctes. La méthode auto-cohérente échantillonne un ensemble de chemins de raisonnement différents du modèle de langage à travers la chaîne de pensée, puis renvoie la réponse la plus cohérente parmi elles.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Récemment, des chercheurs de l'Université de Pékin et de Microsoft se sont basés sur la nouvelle méthode auto-cohérente DiVeRSe, qui contient trois innovations majeures et améliore encore les capacités de raisonnement du modèle.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Lien papier : https://arxiv.org/abs/2206.02336

Lien code : https://github.com/microsoft/DiVeRSe

Premièrement, affecté par l'approche auto-cohérente « différentes idées, mêmes réponses « Inspiré par l'échantillonnage de différents chemins de raisonnement à partir de modèles linguistiques, DiVerSe va encore plus loin en termes de diversité. Selon le concept de « tous les chemins mènent à Rome », plusieurs invites sont utilisées pour générer des réponses, qui peuvent générer des réponses plus complètes et plus détaillées. des réponses complémentaires.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Les chercheurs fournissent d'abord 5 invites différentes pour chaque question, puis échantillonnent 20 chemins de raisonnement pour chaque invite, et enfin génèrent 100 chemins de raisonnement de réponse pour chaque question.

Une question clé est de savoir comment obtenir différentes invites. Supposons qu'après avoir obtenu une bibliothèque d'échantillons, nous puissions en échantillonner K échantillons pour construire une invite, puis la répéter 5 fois

S'il n'y a pas assez d'échantillons, utilisez ensuite self. -méthode d'enseignement pour améliorer la diversité des invites, c'est-à-dire générer des pseudo chemins d'inférence et des paires à partir d'une partie des échantillons.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Deuxièmement, lors de la génération du chemin d'inférence, il n'existe aucun mécanisme dans le modèle de langage pour corriger les erreurs des étapes précédentes, ce qui peut prêter à confusion dans le résultat final de la prédiction. DiVeRSe s'appuie sur l'idée de vérificateur pour vérifier l'exactitude de chaque chemin de raisonnement afin de guider le mécanisme de vote. Autrement dit, tous les mécanismes de raisonnement ne sont pas aussi importants ou bons.

Supposons que nous ayons 100 chemins de raisonnement pour une question, dont 60 aboutissent à « la réponse est 110 » et dont 40 aboutissent à « la réponse est 150 ». Sans validateur (c'est-à-dire la méthode auto-cohérente d'origine), « la réponse est 110 » est un vote majoritaire, nous pouvons donc traiter 110 comme la réponse finale et supprimer les 40 raisonnements qui aboutissent à 150.

le vérificateur note le chemin de raisonnement. La fonction f est formée par un double classificateur. L'entrée est la question x, le chemin z et la réponse y, et la sortie est la probabilité de positif.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Avec le vérificateur, supposons que le score moyen des 60 chemins de raisonnement de « La réponse est 110 » est de 0,3 ; le score moyen des 40 chemins de raisonnement de « La réponse est 150 » est de 0,8. Ensuite, la réponse finale devrait être 150, car 40*0,8>60*0,3

Troisièmement, puisque la réponse est générée sur la base du raisonnement de plusieurs étapes, lorsqu'un chemin génère une réponse correcte, toutes les étapes peuvent être prises en compte. . Cependant, lorsqu’une mauvaise réponse est générée, cela ne signifie pas que toutes les étapes étaient fausses ou ont contribué à l’erreur.

En d'autres termes, même si le résultat est erroné, certaines étapes intermédiaires peuvent toujours être correctes, mais certaines étapes de déviation ultérieures conduisent à la mauvaise réponse finale. DiVeRSe a conçu un mécanisme pour attribuer une étiquette fine à chaque étape et a proposé un vérificateur sensible aux étapes, et a attribué l'exactitude au raisonnement de chaque étape au lieu de simplement regarder la réponse finale.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Le corps principal est toujours un classificateur à deux, mais la question clé est de savoir comment obtenir l'étiquette négative au niveau de l'étape, car si la réponse finale est fausse, sans participation humaine, nous ne savons pas quelle étape est fausse et la bonne. La réponse et le processus doivent tous être corrects.

Les chercheurs ont proposé le concept de supports. Par exemple, dans les tâches arithmétiques, il doit y avoir un résultat intermédiaire d'un autre exemple qui soit le même que le résultat de l'étape intermédiaire.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Sur la base de ces trois améliorations, les chercheurs ont mené des expériences sur 5 ensembles de données de raisonnement arithmétique. On constate que la méthode DiVeRSe basée sur le code-davinci-002 a atteint un nouvel algorithme SOTA, avec un taux d'amélioration moyen de. 6,2%

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Sur les deux tâches de raisonnement de bon sens, les performances de DiVeRSe sont légèrement inférieures à celles de l'autocohérence basée sur PaLM (-2,2%). est une tâche à choix multiples plutôt qu'une tâche ouverte. La tâche de génération a entraîné davantage d'instances de faux positifs.

Dans la tâche de raisonnement inductif, DiVeRSe a obtenu un score de 95,9 % à la tâche CLUTRR, dépassant le résultat de réglage fin SOTA précédent (+28,9 %)

Dans l'expérience d'ablation, on peut voir que le mécanisme de vérification du vote s'améliore performances. Plus évident.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Dans la plupart des expériences, l'extension du vérificateur de vote à une version compatible avec les étapes peut améliorer les performances. Pour le code-davinci-002 sur GSM8K, la version progressive du vérificateur entraînera une légère diminution des performances.

Les raisons possibles sont que le code-davinci-002 est plus puissant et peut produire des chemins d'inférence de meilleure qualité pour GSM8K, réduisant ainsi la nécessité d'informations au niveau des étapes, c'est-à-dire que text-davinci est plus susceptible de générer des chemins d'inférence courts/incomplets, tandis que code-davinci est plus convivial pour générer du contenu croissant.

Au-delà de PaLM ! Un maître de lUniversité de Pékin a proposé DiVeRSe, actualisant complètement le classement du raisonnement PNL

Le premier auteur de l'article est Yifei Li. Il est diplômé de l'Université Northeastern avec un baccalauréat en génie logiciel en 2020. Il étudie actuellement pour une maîtrise à l'Université de Pékin. Son principal domaine de recherche est le traitement du langage naturel. , en particulier les invites dans les modèles de langage à grande échelle - le réglage et le raisonnement.

Le deuxième auteur de l'article est Zeqi Lin, chercheur DKI chez Microsoft Research Asia. Il a obtenu sa licence et son doctorat à l'Université de Pékin en 2014 et 2019 respectivement. Son principal domaine de recherche est l'apprentissage automatique et son application dans l'analyse logicielle. et l'analyse des données.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal