Maison > Périphériques technologiques > IA > Il est interdit de constituer aléatoirement des modèles de langage à grande échelle, et compte tenu de certaines connaissances extérieures, le raisonnement est très fiable.

Il est interdit de constituer aléatoirement des modèles de langage à grande échelle, et compte tenu de certaines connaissances extérieures, le raisonnement est très fiable.

王林
Libérer: 2023-04-12 23:25:01
avant
1629 Les gens l'ont consulté

Les modèles linguistiques à grande échelle (LLM) ont démontré d'excellentes performances sur une variété de tâches complexes grâce à un apprentissage en contexte sans nécessiter de formation ou de réglage précis pour des tâches spécifiques. Les progrès récents en matière d'invites et de décodage permettent également au LLM de résoudre des raisonnements complexes. la mission est devenue une réalité.

Cependant, LLM peut stocker des connaissances obsolètes, incomplètes ou incorrectes, et pour réussir à déployer LLM dans des applications du monde réel, les sources de connaissances externes (telles que Wikipédia) sont cruciales. Des tentatives antérieures ont été faites pour appliquer les connaissances à des modèles de langage (LM) plus petits tels que T5, BERT et RoBERTa, mais ces méthodes nécessitent souvent une formation supplémentaire ou un réglage précis, sont coûteuses et sont totalement peu pratiques pour les LLM.

Sur cette base, des chercheurs de l'Université de Rochester, du Tencent AI Lab et de l'Université de Pennsylvanie ont proposé conjointement une méthode de post-traitement appelée Rethinking with Retrieval (RR) pour utiliser les connaissances externes en LLM.

Il est interdit de constituer aléatoirement des modèles de langage à grande échelle, et compte tenu de certaines connaissances extérieures, le raisonnement est très fiable.

Adresse papier : https://arxiv.org/pdf/2301.00303v1.pdf

L'idée de​​cette recherche est d'abord d'utiliser la chaîne de pensée (CoT) La méthode d'incitation génère un ensemble de chemins de raisonnement différents, similaire à la méthode de Wang et al. L’étude utilise ensuite chaque étape d’inférence dans ces chemins pour récupérer des connaissances externes pertinentes, permettant ainsi à la méthode RR de fournir des explications plus plausibles et des prédictions plus précises.

Cette étude utilise GPT-3 175B et plusieurs sources de connaissances externes courantes (Wikipedia, Wikidata, WordNet et Conceptnet) pour évaluer l'efficacité de la méthode RR sur trois tâches de raisonnement complexes, y compris le raisonnement de bon sens, le raisonnement temporel et le raisonnement tabulaire. Les résultats expérimentaux montrent que RR surpasse systématiquement les autres méthodes sur ces trois tâches sans formation supplémentaire ni réglage fin, ce qui indique que la méthode RR présente de grands avantages en tirant parti des connaissances externes pour améliorer les performances du LLM.

Repenser avec la récupération

En pratique, bien que les LLM capturent avec précision les éléments nécessaires pour répondre à la question, ces modèles génèrent parfois des résultats incorrects. Ce phénomène montre qu'il existe certains problèmes dans la manière dont LLM stocke et récupère les connaissances, notamment :

  • Il y a des connaissances pertinentes obsolètes, incorrectes ou manquantes dans le corpus de pré-formation ;
  • Il y a des problèmes avec le stockage ; des connaissances pertinentes lors de la pré-formation. Erreur
  • Récupération incorrecte des connaissances pertinentes lors de la phase de raisonnement. L'idée générale de la méthode

RR est la suivante : étant donné une question d'entrée Q, la méthode RR utilise d'abord des invites en chaîne pour générer un ensemble de chemins de raisonnement différents R_1, R_2,... , R_N, où chaque chemin d'inférence R_i se compose d'une explication E_i et de la prédiction suivante P_i, puis les connaissances pertinentes K_1,...,K_M sont extraites de la base de connaissances appropriée KB pour prendre en charge l'explication dans chaque chemin d'inférence, et le les plus cohérentes sont sélectionnées. Les prédictions de ces connaissances Il est interdit de constituer aléatoirement des modèles de langage à grande échelle, et compte tenu de certaines connaissances extérieures, le raisonnement est très fiable..

Invite de chaîne de pensée (CoT). Considérablement différent des invites standard, les invites CoT impliquent des démonstrations d'exemples de raisonnement étape par étape dans l'invite pour générer une série de phrases courtes qui capturent le processus de raisonnement.

Par exemple, étant donné la question d'entrée : "Aristote a-t-il utilisé un ordinateur portable ?", l'invite CoT vise à générer un chemin de raisonnement complet :

Le processus de raisonnement de l'invite CoT est : "Aristote est mort en 322 avant JC. Le premier ordinateur portable a été inventé en 1980. Aristote n’a donc pas utilisé d’ordinateur portable. La réponse est donc non.

Échantillonnage de différents chemins d'inférence. Semblable à Wang et al. (2022), cette étude a échantillonné un ensemble différent de chemins d'inférence R_1, R_2, ..., R_N au lieu de considérer uniquement le chemin proportionnel optimal (gourmand) comme dans Wei et al. . Concernant la question « Aristote a-t-il utilisé un ordinateur portable ? », le raisonnement possible est le suivant :

(R_1) Aristote est mort en 2000. Le premier ordinateur portable a été inventé en 1980. Aristote a donc utilisé un ordinateur portable. La réponse à cette question est donc oui.

(R_2) Aristote est mort en 322 avant JC. Le premier ordinateur portable a été inventé en 2000. Par conséquent, Aristote n’a pas utilisé d’ordinateur portable. La réponse est donc non.

Récupération de connaissances. Différentes bases de connaissances peuvent être utilisées pour gérer différentes tâches. Par exemple, pour répondre à la question « Aristote a-t-il utilisé un ordinateur portable ? » nous pouvons utiliser Wikipédia comme base de connaissances externe. Les techniques de recherche d'informations peuvent être utilisées pour récupérer les connaissances pertinentes K_1,...K_M de Wikipédia sur la base d'étapes de raisonnement décomposées. Idéalement, nous obtiendrions les deux paragraphes suivants de Wikipédia pour cette question :

(K_1) Aristote (384 avant JC à 322 avant JC) était un philosophe grec de la période classique de la Grèce antique. Et le savant maître

( K_2) Le premier ordinateur portable, l'Epson HX-20, a été inventé en 1980...

Raisonnement fidèle. Nous pouvons estimer la confiance de chaque chemin d'inférence R_i en utilisant la fonction f_KB(R_i), qui est basée sur les connaissances pertinentes K_1,...,K_M extraites de la base de connaissances KB. La prédiction finale peut être obtenue en appliquant le processus d'inférence suivant :

Il est interdit de constituer aléatoirement des modèles de langage à grande échelle, et compte tenu de certaines connaissances extérieures, le raisonnement est très fiable.

Évaluation expérimentale

Dans cette section, l'étude introduit l'évaluation du RR sur trois tâches de raisonnement complexes : le raisonnement de bon sens, le raisonnement temporel et Raisonnement tabulaire.

Configuration expérimentale. Dans toutes les expériences, cette étude utilise GPT-3 text-davinci-002, sauf indication contraire. Le nombre maximum de jetons générés au cours de la réalisation de l'expérience a été fixé à 256, avec des invites de tir zéro, de quelques tirs et de chaîne de pensée, et le paramètre de température (température) a été fixé à 0.

Résultats. Comme le montre le tableau 1, notre méthode proposée, RR, surpasse systématiquement toutes les lignes de base sur les trois tâches d'inférence sans formation ni réglage supplémentaire. Ces résultats mettent en évidence l’efficacité du RR dans l’exploitation des connaissances externes pour améliorer les performances du LLM.

Il est interdit de constituer aléatoirement des modèles de langage à grande échelle, et compte tenu de certaines connaissances extérieures, le raisonnement est très fiable.

Cette étude démontre l'analyse de GPT-3 avec la méthode d'invite CoT sur l'ensemble de données StrategyQA. Après avoir soigneusement examiné les résultats de GPT-3, l’étude a observé que RR peut fournir des explications raisonnables et des prédictions correctes pour de nombreux problèmes. Par exemple, lorsqu'on lui a posé la question « Albany, Géorgie, atteindra-t-elle 100 000 habitants avant Albany, New York ? . Cependant, l’étude a également observé que GPT-3 peut occasionnellement fournir un support factuel incorrect à ses interprétations ou formuler un raisonnement incorrect pour ses prédictions, bien qu’il soit généralement capable d’identifier des points de vue appropriés.

Faits à l’appui erronés. Comme le montre le tableau 2, GPT-3 fournit un support factuel incorrect pour la chanson la mieux classée de Lil Jon dans le classement Billboard, indiquant que la chanson la mieux classée est Get Low au lieu de la bonne réponse Ouais. De plus, GPT-3 a estimé à tort que le sommet du mont Fuji ne peut pas être plus haut que la mer du Japon, alors que la bonne réponse est que c'est le cas. Il est interdit de constituer aléatoirement des modèles de langage à grande échelle, et compte tenu de certaines connaissances extérieures, le raisonnement est très fiable.

Veuillez vous référer au document original pour plus de détails techniques.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal