


3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il s'est trompé sur l'âge de Hinton.
Un objectif important de l’intelligence artificielle est de développer des modèles dotés de fortes capacités de généralisation. Dans le domaine du traitement du langage naturel (NLP), les modèles linguistiques pré-entraînés ont fait des progrès significatifs à cet égard. Ces modèles sont souvent affinés pour s’adapter à de nouvelles tâches.
Récemment, des chercheurs de Google ont analysé diverses méthodes de réglage fin des instructions, y compris l'impact des extensions sur le réglage précis des instructions. Les expériences montrent que le réglage fin de l'instruction peut effectivement s'adapter en fonction du nombre de tâches et de la taille du modèle, et que les modèles comportant jusqu'à 540 milliards de paramètres peuvent en bénéficier de manière significative. Les recherches futures devraient encore augmenter le nombre de tâches et la taille du modèle. En outre, l'étude analyse également l'impact du réglage fin sur la capacité du modèle à effectuer des inférences, et les résultats sont très attractifs.
Le Flan-T5 résultant contient des instructions affinées pour plus de 1 800 tâches linguistiques, améliorant considérablement les invites et les capacités de raisonnement en plusieurs étapes. L'exécution du benchmark avec 3 milliards de paramètres peut dépasser les 175 milliards de paramètres de GPT-3.
Il semble que Google ait trouvé un autre moyen d'améliorer les capacités des grands modèles. Cependant, cette recherche a non seulement suscité l’accueil de la communauté de l’apprentissage automatique, mais aussi les plaintes de Gary Marcus :
Pourquoi le modèle de Google s’est-il trompé sur la date de naissance du célèbre scientifique de Google, Geoffrey Hinton ? Il s’agissait évidemment d’un ancien né en 1947.
Quoc Le, scientifique en chef de Google Brain et l'un des auteurs de l'article, a rapidement rectifié la situation : l'image de l'intérimaire était fausse dans le journal, le modèle Flan-T5 n'était en réalité pas le cas. Je me trompe sur l'année de naissance de Geoff. Il y a une photo du certificat.
D'ailleurs, le célèbre spécialiste de l'IA né en 1963 est Jürgen Schmidhuber.
Puisque ce n’est pas le modèle d’IA qui est faux, voyons quels changements la nouvelle méthode de Google peut apporter aux modèles pré-entraînés.
Papier : Mise à l'échelle des modèles de langage affinés par les instructions
- Adresse papier : https://arxiv.org/abs/2210.11416
- Modèle public : https ://github.com/google-research/t5x/blob/main/docs/models.md#flan-t5-checkpoints
Cette étude utilise un modèle de paramètres 540B pour entraîner Flan-PaLM, ce qui conviendra -ajuster le nombre de tâches augmenté à plus de 1 800 et inclut les données de chaîne de pensée (CoT ; Wei et al., 2022b). Le Flan-PaLM formé surpasse PaLM et atteint un nouveau SOTA sur plusieurs benchmarks. En termes de capacités de raisonnement, Flan-PaLM est capable de tirer parti du CoT et de l'auto-cohérence (Wang et al., 2022c) pour atteindre une précision de 75,2 % sur la compréhension du langage multitâche à grande échelle (MMLU ; Hendrycks et al., 2020). Taux.
De plus, Flan-PaLM fonctionne nettement mieux que PaLM sur un ensemble de problèmes génératifs ouverts et difficiles, avec une convivialité considérablement améliorée.
Dans l'ensemble, cette étude de Google met en lumière des manières spécifiques d'utiliser le réglage fin des instructions pour améliorer les performances du modèle.
Méthode
Plus précisément, cette recherche se concentre principalement sur plusieurs aspects qui affectent le réglage fin de l'enseignement, notamment : (1) l'augmentation du nombre de tâches, (2) l'augmentation de la taille du modèle et (3) l'ajustement fin de la données de la chaîne de pensée.
L'étude a révélé que le réglage fin de l'instruction avec les aspects ci-dessus améliorait considérablement diverses classes de modèles (PaLM, T5, U-PaLM), les paramètres d'invite (zéro-coup, quelques-coups, CoT) et les critères d'évaluation (MMLU, BBH, TyDiQA, MGSM, génération ouverte). Par exemple, le Flan-PaLM 540B avec réglage fin des instructions surpasse largement le PALM 540B sur 1,8K tâches (+9,4 % en moyenne). Le Flan-PaLM 540B atteint des performances de pointe sur plusieurs tests, tels que 75,2 % sur cinq MMLU.
Les chercheurs ont également divulgué le point de contrôle Flan-T5, qui atteint de solides performances en quelques tirs, même par rapport à des modèles plus grands tels que le PaLM 62B. Dans l’ensemble, le réglage fin de l’instruction est une approche générale visant à améliorer les performances et la convivialité des modèles linguistiques pré-entraînés.
Figure 1. Les chercheurs ont affiné divers modèles de langage sur plus de 1 800 tâches, avec/sans échantillons (zéro échantillon et quelques échantillons) et avec/sans chaînes de pensée. Le réglage fin permet une généralisation sur une gamme de scénarios d’évaluation.
Figure 2. Les données de réglage fin comprennent 473 ensembles de données, 146 catégories de tâches et un total de 1836 tâches.
Une fois les processus de réglage fin des données et de réglage du programme terminés, les chercheurs ont comparé l'impact de l'expansion de l'échelle en fonction des performances de la taille du modèle sur la tâche. Premièrement, pour les trois tailles de modèles, le réglage fin des instructions multitâches entraîne d'importantes améliorations des performances par rapport à l'absence de réglage fin, avec des gains allant de 9,4 % à 15,5 %. Deuxièmement, augmenter le nombre de tâches de réglage fin peut améliorer les performances.
Enfin, nous pouvons voir qu'augmenter la taille du modèle d'un ordre de grandeur (8B → 62B ou 62B → 540B) peut améliorer considérablement les performances des modèles affinés et non affinés.
L'impact du réglage fin des instructions multitâches sur la précision par rapport à la taille du modèle (quantité de paramètres) et l'expansion du nombre et de l'échelle des tâches de réglage fin.
L'augmentation du nombre de tâches dans les données de réglage fin améliore les performances de Flan-PaLM sur la plupart des benchmarks d'évaluation.
Les chercheurs démontrent que l'inclusion de neuf ensembles de données annotés avec des chaînes de pensées (CoT) dans un mélange affiné améliore les capacités d'inférence. Le tableau ci-dessous montre que les capacités d'invite CoT de Flan-PaLM surpassent PaLM sur les quatre critères d'évaluation retenus.
Cette étude a révélé qu'un autre avantage des instructions de réglage fin pour les données CoT est qu'elles peuvent réaliser une inférence sans tir. Le modèle génère lui-même des capacités d'inférence sans un petit nombre d'échantillons pour CoT. nécessitent de nombreux ajustements techniques pour réussir.
Figure 6 : Performances sans tir de PaLM et Flan-PaLM sur un ensemble de 23 tâches BIG-Bench (BBH) difficiles. Flan-PaLM nécessite la génération d'une Chaîne de Pensées (CoT) activée par la commande "Pensons pas à pas".
Pour démontrer la généralité de la nouvelle méthode, Google a formé T5, PaLM et U-PaLM, couvrant une gamme de tailles de modèles allant de 80 millions à 540 milliards de paramètres, et a constaté que tous les modèles peuvent améliorer considérablement les performances.
Tableau 5. Le réglage fin des instructions (Flan) améliore les performances par rapport aux autres méthodes de pré-entraînement continu.
Après les tests, le réglage précis des instructions a considérablement amélioré les performances moyennes normalisées de tous les types de modèles, le modèle T5 bénéficiant le plus du réglage précis des instructions par rapport aux modèles non réglés. Ces résultats sont assez solides pour certains benchmarks : par exemple, Flan-T5-XL a atteint un score MMLU de 47,6 % avec seulement 3 milliards de paramètres, dépassant le score de 43,9 % du GPT-3 avec 175 milliards de paramètres.
En plus des benchmarks NLP, les modèles de langage sont également capables de générer des réponses longues aux demandes de questions ouvertes. À cet égard, les références standard de la PNL et les mesures automatisées utilisées pour les évaluer sont insuffisantes pour mesurer les préférences humaines. Les chercheurs ont évalué cela en créant un ensemble d’évaluation de 190 exemples. L'ensemble d'évaluation se compose de questions posées au modèle de manière générale dans cinq catégories difficiles de 20 questions chacune : créativité, raisonnement contextuel, raisonnement complexe, planification et explication.
Pour 60 de ces exemples (issus des catégories de raisonnement complexe, de planification et d'explication), l'étude a créé une variation avec une phrase déclenchante de la chaîne de pensée (par exemple, « Pensons étape par étape ») comme coup de pouce. Une autre évaluation a été menée sur l’opportunité d’activer le tir zéro sur le CoT. En plus des 160 entrées zéro-shot mentionnées ci-dessus, l'étude comprenait également 30 entrées pour tester les capacités de quelques-shots où des modèles de langage forts sans ajustement pédagogique se sont avérés performants.
Les chercheurs pensent que le réglage fin des instructions et l'expansion de l'échelle peuvent améliorer continuellement les performances des grands modèles de langage, et que le réglage fin est crucial pour les capacités de raisonnement et peut également généraliser les capacités des modèles. En combinant le réglage fin des instructions avec d'autres techniques d'adaptation de modèles telles que UL2R, Google propose le modèle Flan-U-PaLM le plus puissant de ce travail.
Il est important de noter que le réglage fin des instructions n'augmente pas de manière significative le coût de calcul comme l'expansion de l'échelle du modèle. Par exemple, pour le PaLM 540B, le réglage fin des instructions ne nécessite que 0,2 % des calculs préalables à la formation, mais il peut normaliser l'évaluation croisée. L’augmentation moyenne a été de 9,4 %. Les petits modèles qui utilisent des nudges directifs peuvent parfois surpasser les modèles plus grands sans nudges.
Pour ces raisons, les chercheurs recommandent un réglage fin des instructions pour presque tous les modèles linguistiques pré-entraînés.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Deepseek est un puissant outil de récupération d'informations. .

Deepseek est un moteur de recherche propriétaire qui ne recherche que dans une base de données ou un système spécifique, plus rapide et plus précis. Lorsque vous l'utilisez, il est conseillé aux utilisateurs de lire le document, d'essayer différentes stratégies de recherche, de demander de l'aide et des commentaires sur l'expérience utilisateur afin de tirer le meilleur parti de leurs avantages.

Cet article présente le processus d'enregistrement de la version Web de Sesame Open Exchange (GATE.IO) et l'application Gate Trading en détail. Qu'il s'agisse de l'enregistrement Web ou de l'enregistrement de l'application, vous devez visiter le site Web officiel ou l'App Store pour télécharger l'application authentique, puis remplir le nom d'utilisateur, le mot de passe, l'e-mail, le numéro de téléphone mobile et d'autres informations et terminer la vérification des e-mails ou du téléphone mobile.

Pourquoi le lien d'échange de Bybit ne peut-il pas être téléchargé directement et installé? Bybit est un échange de crypto-monnaie qui fournit des services de trading aux utilisateurs. Les applications mobiles de l'échange ne peuvent pas être téléchargées directement via AppStore ou GooglePlay pour les raisons suivantes: 1. La politique de l'App Store empêche Apple et Google d'avoir des exigences strictes sur les types d'applications autorisées dans l'App Store. Les demandes d'échange de crypto-monnaie ne répondent souvent pas à ces exigences car elles impliquent des services financiers et nécessitent des réglementations et des normes de sécurité spécifiques. 2. Conformité des lois et réglementations Dans de nombreux pays, les activités liées aux transactions de crypto-monnaie sont réglementées ou restreintes. Pour se conformer à ces réglementations, l'application ByBit ne peut être utilisée que via des sites Web officiels ou d'autres canaux autorisés

Il est crucial de choisir un canal formel pour télécharger l'application et d'assurer la sécurité de votre compte.

Cet article recommande les dix principales plates-formes de trading de crypto-monnaie qui méritent d'être prêtées, notamment Binance, Okx, Gate.io, Bitflyer, Kucoin, Bybit, Coinbase Pro, Kraken, Bydfi et Xbit décentralisées. Ces plateformes ont leurs propres avantages en termes de quantité de devises de transaction, de type de transaction, de sécurité, de conformité et de fonctionnalités spéciales. Le choix d'une plate-forme appropriée nécessite une considération complète en fonction de votre propre expérience de trading, de votre tolérance au risque et de vos préférences d'investissement. J'espère que cet article vous aide à trouver le meilleur costume pour vous-même

Une introduction détaillée à l'opération de connexion de la version Web Sesame Open Exchange, y compris les étapes de connexion et le processus de récupération de mot de passe.

Pour accéder à la dernière version du portail de connexion du site Web de Binance, suivez simplement ces étapes simples. Accédez au site officiel et cliquez sur le bouton "Connectez-vous" dans le coin supérieur droit. Sélectionnez votre méthode de connexion existante. Entrez votre numéro de mobile ou votre mot de passe enregistré et votre mot de passe et complétez l'authentification (telles que le code de vérification mobile ou Google Authenticator). Après une vérification réussie, vous pouvez accéder à la dernière version du portail de connexion du site Web officiel de Binance.
