Maison > Périphériques technologiques > IA > Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus d'informations avec moins de mots

Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus d'informations avec moins de mots

王林
Libérer: 2023-09-19 20:33:13
avant
843 Les gens l'ont consulté

La technologie de synthèse automatique a fait des progrès significatifs ces dernières années, principalement en raison de changements de paradigme. Dans le passé, cette technologie reposait principalement sur un réglage fin supervisé sur des ensembles de données annotés, mais elle utilise désormais des modèles de langage étendus (LLM) pour les invites à zéro, comme GPT-4. Grâce à des paramètres d'invite minutieux, un contrôle précis de la longueur, du thème, du style et d'autres fonctionnalités du résumé peut être obtenu sans formation supplémentaire. Mais un aspect est souvent négligé : la densité des informations du résumé. Théoriquement, en tant que compression d'un autre texte, un résumé devrait être plus dense, c'est-à-dire contenir plus d'informations, que le fichier source. Compte tenu de la latence élevée du décodage LLM, il est important de couvrir davantage d’informations avec moins de mots, notamment pour les applications en temps réel.

Cependant, la densité de l'information est une question ouverte : si le résumé ne contient pas assez de détails, cela équivaut à aucune information ; s'il contient trop d'informations sans augmenter la longueur totale, il deviendra difficile à comprendre. Pour transmettre plus d’informations dans le cadre d’un budget de jetons fixe, il est nécessaire de combiner abstraction, compression et fusion.

Dans des recherches récentes, des chercheurs de Salesforce, du MIT et d'autres ont tenté de déterminer les limites de l'augmentation de la densité en sollicitant les préférences humaines pour un ensemble de résumés générés par GPT-4. Cette méthode fournit de nombreuses inspirations pour améliorer la « capacité d'expression » des grands modèles de langage tels que GPT-4

Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus dinformations avec moins de motsLien papier : https://arxiv.org/pdf/2309.04269.pdf

Adresse de l'ensemble de données : https : / /huggingface.co/datasets/griffin/chain_of_density

Plus précisément, les chercheurs ont généré un résumé initial contenant peu d'entités en utilisant le nombre moyen d'entités par jeton comme indicateur de densité. Ensuite, ils identifient et fusionnent de manière itérative les 1 à 3 entités manquantes dans le résumé précédent sans augmenter la longueur totale (5 fois la longueur totale). Chaque résumé a un ratio entité/jeton plus élevé que le résumé précédent. Sur la base des données de préférences humaines, les auteurs ont finalement déterminé que les humains préfèrent les résumés presque aussi denses que les résumés écrits par des humains, et plus denses que les résumés générés par les indices GPT-4 ordinaires.

La contribution globale de l'étude peut être résumée comme suit :

    Nous devons développer une méthode itérative basée sur des invites (CoD) pour augmenter la densité d'entités des résumés
  • Évaluation manuelle et automatisée de la densité des résumés dans les articles de CNN/Daily Mail pour mieux comprendre le compromis entre le caractère informatif (privilégiant plus d'entités) et la clarté (privilégiant moins d'entités)
  • Résumés GPT-4 open source, annotations et un ensemble de 5000 résumés CoD non annotés, utilisés pour l'évaluation ou le raffinement.

Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus dinformations avec moins de mots

Que signifie CoD ?

L'auteur a formulé une invite de chaîne unique de densité (CoD), qui génère un premier résumé et fait augmenter continuellement sa densité d'entité. Plus précisément, au sein d'un nombre fixe d'interactions, un ensemble unique d'entités saillantes dans le texte source est identifié et fusionné dans le résumé précédent sans augmenter la longueur.

Des exemples d'invites et de résultats sont présentés dans la figure 2. L'auteur ne précise pas explicitement les types d'entités, mais définit les entités manquantes comme :

    Pertinentes pour l'histoire principale :
  • Spécifiques : concises (5 mots ou moins) ; dans le résumé précédent ;
  • Fidèle : présent dans l'article ;
  • Partout : situé n'importe où dans l'article ;
  • L'auteur a sélectionné au hasard 100 articles de l'ensemble de tests de résumé CNN/DailyMail pour générer des résumés CoD pour eux. Pour faciliter la référence, ils ont comparé les statistiques récapitulatives de CoD aux résumés de référence rédigés par des humains et aux résumés générés par GPT-4 sous l'invite normale : "Écrivez un très court résumé de l'article. Pas plus de 70 mots."
  • Situation statistique

Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus dinformations avec moins de motsDans l'étude, l'auteur a résumé sous deux aspects : les statistiques directes et les statistiques indirectes. Les statistiques directes (jetons, entités, densité des entités) sont directement contrôlées par CoD, tandis que les statistiques indirectes sont un sous-produit attendu de la densification.

Statistiques directes. Comme le montre le tableau 1, la deuxième étape a réduit la longueur de 5 jetons en moyenne (de 72 à 67) en raison de la suppression des mots inutiles du résumé initialement long. La densité d'entité commence à 0,089, initialement inférieure à celle du GPT-4 humain et Vanilla (0,151 et 0,122), et finit par atteindre 0,167 après 5 étapes de densification. Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus dinformations avec moins de motsStatistiques indirectes. Le niveau d'abstraction devrait augmenter à chaque étape de CoD, car le résumé est réécrit à plusieurs reprises pour faire de la place à chaque entité supplémentaire. Les auteurs mesurent l'abstraction en utilisant la densité d'extraction : la longueur carrée moyenne des fragments extraits (Grusky et al., 2018). De même, la fusion de concepts devrait augmenter de façon monotone à mesure que des entités sont ajoutées à un résumé de longueur fixe. Les auteurs ont exprimé le degré d'intégration par le nombre moyen de phrases sources alignées avec chaque phrase récapitulative. Pour l'alignement, les auteurs utilisent la méthode du gain relatif ROUGE (Zhou et al., 2018), qui aligne la phrase source avec la phrase cible jusqu'à ce que le gain relatif ROUGE des phrases supplémentaires ne soit plus positif. Ils s’attendaient également à des changements dans la distribution du contenu ou dans la position dans l’article d’où provient le contenu résumé.

Plus précisément, les auteurs s'attendent à ce que les résumés CoD montrent dans un premier temps un fort « biais de plomb » (Lead Bias), mais commencent ensuite progressivement à introduire des entités à partir du milieu et de la fin de l'article. Pour mesurer cela, ils ont utilisé l’alignement en fusion pour réécrire le contenu en chinois, sans que la phrase originale n’apparaisse, et ont mesuré le classement moyen des phrases parmi toutes les phrases sources alignées.

La figure 3 confirme ces hypothèses : à mesure que le nombre d'étapes de réécriture augmente, l'abstraction augmente (l'image de gauche montre une densité d'extraction plus faible), le taux de fusion augmente (l'image du milieu le montre) et le résumé commence à inclure le contenu du milieu. et fin de l'article (affiché à droite). Fait intéressant, tous les résumés CoD sont plus abstraits que les résumés écrits par des humains et les résumés de base

Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus dinformations avec moins de mots

Lors de la réécriture du contenu, il doit être réécrit en chinois, la phrase originale n'a pas besoin d'apparaître

Pour mieux To Pour comprendre le compromis des résumés CoD, les auteurs ont mené une étude humaine basée sur les préférences et effectué une évaluation basée sur les notations à l'aide de GPT-4.

Préférence humaine. Plus précisément, pour les mêmes 100 articles (5 étapes * 100 = 500 résumés au total), l'auteur a montré au hasard les résumés et articles CoD « recréés » aux quatre premiers auteurs de l'article. Chaque annotateur a donné son résumé préféré sur la base de la définition de Stiennon et al. (2020) d'un « bon résumé ». Le tableau 2 rapporte les votes de première place de chaque annotateur dans l'étape CoD, ainsi que le résumé de chaque annotateur. Dans l'ensemble, 61 % des résumés de première place (23,0+22,5+15,5) impliquaient ≥3 étapes de densification. Le nombre médian d’étapes CoD préférées se situe au milieu (3), avec un nombre d’étapes attendu de 3,06.

Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus dinformations avec moins de mots

Sur la base de la densité moyenne de la troisième étape, la densité d'entités préférée de tous les candidats CoD est d'environ 0,15. Comme le montre le tableau 1, cette densité est cohérente avec les résumés rédigés par des humains (0,151), mais nettement supérieure à celle des résumés rédigés avec l'invite GPT-4 simple (0,122)

métrique automatique. En complément de l'évaluation humaine (ci-dessous), les auteurs ont utilisé GPT-4 pour noter les résumés CoD (1 à 5 points) selon 5 dimensions : caractère informatif, qualité, cohérence, attribuable et totalité. Comme le montre le tableau 3, la densité est en corrélation avec le caractère informatif, mais jusqu'à une limite, le score culminant à l'étape 4 (4,74).

Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus dinformations avec moins de mots

Parmi les scores moyens de chaque dimension, les première et dernière étapes de CoD ont les scores les plus bas, tandis que les trois étapes du milieu ont des scores proches (4,78, 4,77 et 4,76 respectivement).

Analyse qualitative. Il existe un compromis évident entre la cohérence/lisibilité abstraite et le caractère informatif. Deux étapes CoD sont illustrées dans la figure 4 : le résumé d'une étape est amélioré par plus de détails et le résumé de l'autre étape est compromis. En moyenne, les résumés CoD intermédiaires parviennent le mieux à atteindre cet équilibre, mais ce compromis doit encore être défini et quantifié avec précision dans les travaux futurs.

Salesforce collabore avec des chercheurs du MIT pour créer des didacticiels de révision GPT-4 open source afin de fournir plus dinformations avec moins de motsPour plus de détails sur le document, veuillez vous référer au document original.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:jiqizhixin.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal