Maison > Périphériques technologiques > IA > le corps du texte

Comprendre le cadre d'évaluation Arthur Bench LLM en un seul article

WBOY
Libérer: 2024-06-01 17:57:01
original
400 Les gens l'ont consulté

Bonjour les amis, je m'appelle Luga, aujourd'hui nous parlerons des technologies liées au domaine écologique de l'intelligence artificielle (IA) - évaluation LLM.

Comme nous le savons tous, l'évaluation LLM est un sujet important dans le domaine de l'intelligence artificielle. À mesure que les LLM sont de plus en plus utilisés dans divers scénarios, il devient de plus en plus important d’évaluer leurs capacités et leurs limites. En tant qu'outil d'évaluation LLM émergent, ArthurBench vise à fournir une plateforme d'évaluation complète, équitable et reproductible pour les chercheurs et développeurs en IA.

一文读懂 Arthur Bench LLM 评估框架

1. Défis rencontrés par l'évaluation de texte traditionnelle

Ces dernières années, avec le développement et l'amélioration rapides des grands modèles de langage (LLM), les méthodes traditionnelles d'évaluation de texte peuvent ne plus être applicables à certains égards. Dans le domaine de l'évaluation de texte, nous avons peut-être entendu parler de certaines méthodes, telles que les méthodes d'évaluation basées sur « l'occurrence de mots », telles que BLEU, et les méthodes d'évaluation basées sur un « modèle de traitement du langage naturel pré-entraîné », telles que BERTScore. Ces nouvelles méthodes d'évaluation permettent une évaluation plus précise de la qualité et de la pertinence des textes. Par exemple, la méthode d'évaluation BLEU évalue la qualité de la traduction en fonction du degré d'occurrence de mots standards, tandis que la méthode d'évaluation BERTScore évalue la pertinence du texte en fonction de la capacité d'un modèle de traitement du langage naturel pré-entraîné à simuler le traitement des phrases en langage naturel. Ces nouvelles méthodes d'évaluation résolvent dans une certaine mesure certains problèmes des méthodes traditionnelles et offrent une flexibilité et une précision plus élevées. Cependant, avec le développement et l'amélioration continus des modèles de langage, ces méthodes ont été très efficaces dans le passé, mais à mesure que la technologie écologique du LLM continue de se développer, elles se révèlent un peu inadéquates et ne peuvent pas répondre pleinement aux besoins actuels.

Avec le développement et l'amélioration rapides du LLM, nous sommes confrontés à de nouveaux défis et opportunités. Les capacités et les niveaux de performance des LLM continuent d'augmenter, ce qui rend possible que les méthodes d'évaluation basées sur l'occurrence des mots telles que BLEU ne capturent pas pleinement la qualité et l'exactitude sémantique du texte généré par LLM. LLM produit un texte plus fluide, cohérent et sémantiquement riche, des avantages que les méthodes traditionnelles d'évaluation basées sur l'occurrence des mots ne parviennent pas à mesurer avec précision.

Les méthodes d'évaluation des modèles pré-entraînés (tels que BERTScore) peuvent être confrontées à certains défis lorsqu'il s'agit de tâches spécifiques. Bien que les modèles pré-entraînés fonctionnent bien sur de nombreuses tâches, ils peuvent ne pas prendre pleinement en compte les caractéristiques uniques du LLM et ses performances sur des tâches spécifiques. Par conséquent, s'appuyer uniquement sur des méthodes d'évaluation basées sur des modèles pré-entraînés peut ne pas évaluer pleinement les capacités du LLM.

2. Pourquoi l'évaluation de l'orientation LLM est-elle nécessaire ? Et les défis qu'elle entraîne ?

De manière générale, dans les scénarios commerciaux réels, les aspects les plus précieux de l'utilisation de la méthode d'évaluation de l'orientation LLM résident principalement dans la « rapidité » et la « sensibilité ».

1. Efficace

Tout d’abord, de manière générale, la mise en œuvre est plus rapide. La première mise en œuvre de la création d’une évaluation guidée par LLM est relativement rapide et facile par rapport à la quantité de travail requise par les pipelines de gestion d’évaluation précédents. Pour l'évaluation guidée par LLM, il nous suffit de préparer deux choses : décrire les critères d'évaluation avec des mots et fournir quelques exemples à utiliser dans le modèle d'invite. L'utilisation d'un LLM pour accomplir ces tâches est plus efficace que la quantité de travail et de collecte de données nécessaires pour créer votre propre modèle PNL pré-entraîné (ou affiner un modèle PNL existant) pour servir d'estimateur. Avec LLM, l’itération des critères d’évaluation est beaucoup plus rapide. De plus, l'itération des critères d'évaluation est beaucoup plus rapide avec LLM. Grâce à LLM, nous pouvons générer plus rapidement des versions itératives des critères d'évaluation et effectuer des évaluations plus efficaces à l'aide de LLM. Avec LLM, l’itération des critères d’évaluation est beaucoup plus rapide. La création d'une première mise en œuvre d'une évaluation guidée par LLM est relativement rapide et facile par rapport à la quantité de travail requise par les pipelines de gestion d'évaluation précédents. Pour l'évaluation guidée par LLM, il nous suffit de préparer deux choses : décrire les critères d'évaluation avec des mots et fournir quelques exemples à utiliser dans le modèle d'invite. Par rapport à la quantité de travail et de collecte de données nécessaires pour créer votre propre modèle PNL pré-entraîné (ou affiner un modèle PNL existant) à utiliser comme estimateur, il est plus efficace d'utiliser LLM pour accomplir ces tâches

2 . Sensibilité

De plus, le LLM est généralement plus sensible. Cette sensibilité peut apporter des aspects positifs, LLM peut gérer ces situations avec plus de flexibilité par rapport aux modèles PNL pré-entraînés et aux méthodes d'évaluation évoquées précédemment. Cependant, cette sensibilité peut également rendre les résultats de l’évaluation LLM très imprévisibles.

Comme nous en avons discuté précédemment, les évaluateurs LLM sont plus sensibles que les autres méthodes d'évaluation. Il existe de nombreuses façons différentes de configurer LLM en tant qu'évaluateur, et son comportement peut varier considérablement en fonction de la configuration choisie. Parallèlement, un autre défi est que les évaluateurs LLM peuvent se retrouver bloqués si l'évaluation implique trop d'étapes d'inférence ou nécessite de traiter trop de variables simultanément.

En raison des caractéristiques de LLM, ses résultats d'évaluation peuvent être affectés par différentes configurations et réglages de paramètres. Cela signifie que lors de l'évaluation des LLM, le modèle doit être soigneusement sélectionné et configuré pour garantir qu'il se comporte comme prévu. Différentes configurations peuvent conduire à des résultats de sortie différents, l'évaluateur doit donc consacrer du temps et des efforts à ajuster et optimiser les paramètres du LLM afin d'obtenir des résultats d'évaluation précis et fiables.

De plus, les évaluateurs peuvent être confrontés à certains défis lorsqu'ils sont confrontés à des tâches d'évaluation qui nécessitent un raisonnement complexe ou le traitement simultané de plusieurs variables. En effet, la capacité de raisonnement du LLM peut être limitée lorsqu'il s'agit de situations complexes. Le LLM peut nécessiter des efforts supplémentaires pour accomplir ces tâches afin de garantir l'exactitude et la fiabilité de l'évaluation.

3. Qu'est-ce qu'Arthur Bench ?

Arthur Bench est un outil d'évaluation open source utilisé pour comparer les performances des modèles de texte génératifs (LLM). Il peut être utilisé pour évaluer différents modèles, indices et hyperparamètres LLM et fournir des rapports détaillés sur les performances LLM sur diverses tâches.

Les principales fonctionnalités d'Arthur Bench incluent :

  • Comparez différents modèles LLM : Arthur Bench peut être utilisé pour comparer les performances de différents modèles LLM, y compris des modèles de différents fournisseurs, différentes versions de modèles et des modèles utilisant différents ensembles de données de formation.
  • Évaluer les conseils : Arthur Bench peut être utilisé pour évaluer l'impact de différents conseils sur les performances du LLM. Les invites sont des instructions utilisées pour guider LLM dans la génération de texte.
  • Test des hyperparamètres : Arthur Bench peut être utilisé pour tester l'impact de différents hyperparamètres sur les performances du LLM. Les hyperparamètres sont des paramètres qui contrôlent le comportement de LLM.

De manière générale, le flux de travail d'Arthur Bench implique principalement les étapes suivantes, et l'analyse détaillée est la suivante :

一文读懂 Arthur Bench LLM 评估框架

1. Définition des tâches

À ce stade, nous devons clarifier nos objectifs d'évaluation. plusieurs Une variété de tâches d'évaluation, notamment :

  • Question et réponse : testez la capacité du LLM à comprendre et à répondre à des questions ouvertes, difficiles ou ambiguës.
  • Résumé : évaluez la capacité de LLM à extraire des informations clés d'un texte et à générer des résumés concis.
  • Traduction : examinez la capacité du LLM à traduire avec précision et fluidité entre différentes langues.
  • Génération de code : testez la capacité de LLM à générer du code basé sur des descriptions en langage naturel.

2. Sélection du modèle

A cette étape, le travail principal consiste à sélectionner les objets d'évaluation. Arthur Bench prend en charge une variété de modèles LLM, couvrant les technologies de pointe d'institutions bien connues telles que OpenAI, Google AI, Microsoft, etc., telles que GPT-3, LaMDA, Megatron-Turing NLG, etc. Nous pouvons sélectionner des modèles spécifiques à évaluer en fonction des besoins de recherche.

3. Configuration des paramètres

Après avoir terminé la sélection du modèle, l'étape suivante consiste à effectuer un contrôle affiné. Pour évaluer plus précisément les performances de LLM, Arthur Bench permet aux utilisateurs de configurer des astuces et des hyperparamètres.

  • Astuce : Guidez LLM dans la direction et le contenu du texte généré, tel que des questions, des descriptions ou des instructions.
  • Hyperparamètres : paramètres clés qui contrôlent le comportement du LLM, tels que le taux d'apprentissage, le nombre d'étapes de formation, l'architecture du modèle, etc.

Grâce à une configuration raffinée, nous pouvons explorer en profondeur les différences de performances de LLM sous différents paramètres et obtenir des résultats d'évaluation avec plus de valeur de référence.

4. Exécution d'évaluation

La dernière étape consiste à effectuer une évaluation des tâches à l'aide de processus automatisés. En règle générale, Arthur Bench fournit un processus d'évaluation automatisé qui nécessite une configuration simple pour exécuter les tâches d'évaluation. Il effectuera automatiquement les étapes suivantes :

  • Appelez le modèle LLM et génèrez une sortie texte.
  • Pour des tâches spécifiques, appliquez les indicateurs d'évaluation correspondants pour l'analyse.
  • Générez des rapports détaillés et présentez les résultats de l'évaluation.

4. Analyse du scénario d'utilisation d'Arthur Bench

En tant que clé d'une évaluation LLM rapide et basée sur les données, Arthur Bench fournit principalement les solutions suivantes, impliquant spécifiquement :

1. est une étape cruciale dans le domaine de l’intelligence artificielle et revêt une grande importance pour garantir la validité et la fiabilité du modèle. Dans ce processus, le rôle d'Arthur Bench a été crucial. Son objectif est de fournir aux entreprises un cadre de comparaison fiable pour les aider à prendre des décisions éclairées parmi les nombreuses options de grands modèles de langage (LLM) grâce à l'utilisation de mesures et de méthodes d'évaluation cohérentes.

一文读懂 Arthur Bench LLM 评估框架Arthur Bench utilisera son expertise et son expérience pour évaluer chaque option LLM et veillera à ce que des mesures cohérentes soient utilisées pour comparer leurs forces et leurs faiblesses. Il prendra en compte des facteurs tels que les performances du modèle, la précision, la rapidité, les besoins en ressources et bien plus encore pour garantir que les entreprises puissent faire des choix éclairés et clairs.

En utilisant des mesures et des méthodologies d'évaluation cohérentes, Arthur Bench fournira aux entreprises un cadre de comparaison fiable, leur permettant d'évaluer pleinement les avantages et les limites de chaque option LLM. Cela permettra aux entreprises de prendre des décisions éclairées pour maximiser les progrès rapides de l’intelligence artificielle et garantir la meilleure expérience possible avec leurs applications.

2. Optimisation du budget et de la confidentialité

Lors du choix d'un modèle d'IA, toutes les applications ne nécessitent pas les grands modèles de langage (LLM) les plus avancés ou les plus coûteux. Dans certains cas, les besoins de la mission peuvent être satisfaits à l’aide de modèles d’IA moins coûteux.

Cette approche d'optimisation budgétaire peut aider les entreprises à faire des choix judicieux avec des ressources limitées. Au lieu d’opter pour le modèle le plus cher ou le plus moderne, choisissez celui qui convient en fonction de vos besoins spécifiques. Les modèles les plus abordables peuvent être légèrement moins performants que les LLM de pointe à certains égards, mais pour certaines tâches simples ou standard, Arthur Bench peut toujours fournir une solution qui répond aux besoins.

De plus, Arthur Bench a souligné que l'intégration du modèle en interne permet un meilleur contrôle sur la confidentialité des données. Pour les applications impliquant des données sensibles ou des problèmes de confidentialité, les entreprises peuvent préférer utiliser leurs propres modèles formés en interne plutôt que de s'appuyer sur des LLM externes tiers. En utilisant des modèles internes, les entreprises peuvent mieux contrôler le traitement et le stockage des données et mieux protéger la confidentialité des données.

3. Traduire les repères académiques en performances réelles

Les repères académiques font référence aux mesures et aux méthodes d'évaluation des modèles établies dans la recherche universitaire. Ces indicateurs et méthodes sont généralement spécifiques à une tâche ou un domaine spécifique et peuvent évaluer efficacement les performances du modèle dans cette tâche ou ce domaine.

Cependant, les références académiques ne reflètent pas toujours directement les performances d’un modèle dans le monde réel. En effet, les scénarios d'application dans le monde réel sont souvent plus complexes et nécessitent la prise en compte de davantage de facteurs, tels que la distribution des données, l'environnement de déploiement du modèle, etc.

Arthur Bench aide à traduire les références académiques en performances réelles. Il atteint cet objectif des manières suivantes :

  • Fournit un ensemble complet d'indicateurs d'évaluation couvrant plusieurs aspects de la précision, de l'efficacité, de la robustesse du modèle, etc. Ces mesures peuvent refléter non seulement les performances du modèle selon des critères académiques, mais également les performances potentielles du modèle dans le monde réel.
  • Prend en charge plusieurs types de modèles et peut comparer différents types de modèles. Cela permet aux entreprises de choisir le modèle qui convient le mieux à leurs scénarios d'application.
  • Fournit des outils d'analyse visuelle pour aider les entreprises à comprendre intuitivement les différences de performances des différents modèles. Cela permet aux entreprises de prendre des décisions plus facilement.

5. Analyse des fonctionnalités d'Arthur Bench

En tant que clé d'une évaluation LLM rapide et basée sur les données, Arthur Bench possède les fonctionnalités suivantes :

1. Ensemble complet d'indicateurs de notation

Arthur Bench dispose d'un ensemble complet d'indicateurs de notation. indicateurs, couvrant tout, depuis la synthèse de tous les aspects de la qualité jusqu'à l'expérience utilisateur. Il peut utiliser ces mesures de notation à tout moment pour évaluer et comparer différents modèles. L’utilisation combinée de ces mesures de notation peut l’aider à pleinement comprendre les forces et les faiblesses de chaque modèle.

La portée de ces indicateurs de notation est très large, incluant, mais sans s'y limiter, la qualité du résumé, l'exactitude, la fluidité, l'exactitude grammaticale, la capacité de compréhension du contexte, la cohérence logique, etc. Arthur Bench évaluera chaque modèle par rapport à ces mesures et combinera les résultats dans un score complet pour aider les entreprises à prendre des décisions éclairées.

De plus, si l'entreprise a des besoins ou des préoccupations spécifiques, Arthur Bench peut également créer et ajouter des mesures de notation personnalisées en fonction des exigences de l'entreprise. Ceci est fait pour mieux répondre aux besoins spécifiques de l'entreprise et garantir que le processus d'évaluation est conforme aux objectifs et aux normes de l'entreprise.

一文读懂 Arthur Bench LLM 评估框架

2. Versions locales et basées sur le cloud

Pour ceux qui préfèrent le déploiement local et le contrôle autonome, vous pouvez accéder depuis le référentiel GitHub et déployer Arthur Bench dans votre propre environnement local. De cette manière, chacun peut maîtriser et contrôler pleinement le fonctionnement d’Arthur Bench et le personnaliser et le configurer selon ses propres besoins.

D'autre part, pour les utilisateurs qui préfèrent la commodité et la flexibilité, des produits SaaS basés sur le cloud sont également proposés. Vous pouvez choisir de vous inscrire pour accéder et utiliser Arthur Bench via le cloud. Cette méthode élimine le besoin d’une installation et d’une configuration locales fastidieuses et vous permet de profiter immédiatement des fonctions et services fournis.

3. Complètement open source

En tant que projet open source, Arthur Bench présente ses caractéristiques open source typiques en termes de transparence, d'évolutivité et de collaboration communautaire. Cette nature open source offre aux utilisateurs une multitude d’avantages et d’opportunités pour mieux comprendre le fonctionnement du projet, ainsi que pour le personnaliser et l’étendre en fonction de leurs besoins. Dans le même temps, l'ouverture d'Arthur Bench encourage également les utilisateurs à participer activement à la collaboration communautaire, à collaborer et à se développer avec d'autres utilisateurs. Ce modèle de coopération ouverte contribue à promouvoir le développement continu et l'innovation du projet, tout en créant davantage de valeur et d'opportunités pour les utilisateurs.

En bref, Arthur Bench fournit un cadre ouvert et flexible qui permet aux utilisateurs de personnaliser les indicateurs d'évaluation, et a été largement utilisé dans le domaine financier. Les partenariats avec Amazon Web Services et Cohere font progresser le cadre, encourageant les développeurs à créer de nouvelles métriques pour Bench et contribuant aux progrès dans le domaine de l'évaluation des modèles de langage.

Référence :

  • [1] https://github.com/arthur-ai/bench
  • [2] https://neurohive.io/en/news/arthur-bench-framework-for-evaluating- modèles de langage/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!