Table des matières
Méthode
Maison Périphériques technologiques IA 3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il s'est trompé sur l'âge de Hinton.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il s'est trompé sur l'âge de Hinton.

Apr 14, 2023 am 11:49 AM
谷歌 模型

Un objectif important de l’intelligence artificielle est de développer des modèles dotés de fortes capacités de généralisation. Dans le domaine du traitement du langage naturel (NLP), les modèles linguistiques pré-entraînés ont fait des progrès significatifs à cet égard. Ces modèles sont souvent affinés pour s’adapter à de nouvelles tâches.

Récemment, des chercheurs de Google ont analysé diverses méthodes de réglage fin des instructions, y compris l'impact des extensions sur le réglage précis des instructions. Les expériences montrent que le réglage fin de l'instruction peut effectivement s'adapter en fonction du nombre de tâches et de la taille du modèle, et que les modèles comportant jusqu'à 540 milliards de paramètres peuvent en bénéficier de manière significative. Les recherches futures devraient encore augmenter le nombre de tâches et la taille du modèle. En outre, l'étude analyse également l'impact du réglage fin sur la capacité du modèle à effectuer des inférences, et les résultats sont très attractifs.

Le Flan-T5 résultant contient des instructions affinées pour plus de 1 800 tâches linguistiques, améliorant considérablement les invites et les capacités de raisonnement en plusieurs étapes. L'exécution du benchmark avec 3 milliards de paramètres peut dépasser les 175 milliards de paramètres de GPT-3.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

Il semble que Google ait trouvé un autre moyen d'améliorer les capacités des grands modèles. Cependant, cette recherche a non seulement suscité l’accueil de la communauté de l’apprentissage automatique, mais aussi les plaintes de Gary Marcus :

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

Pourquoi le modèle de Google s’est-il trompé sur la date de naissance du célèbre scientifique de Google, Geoffrey Hinton ? Il s’agissait évidemment d’un ancien né en 1947.

Quoc Le, scientifique en chef de Google Brain et l'un des auteurs de l'article, a rapidement rectifié la situation : l'image de l'intérimaire était fausse dans le journal, le modèle Flan-T5 n'était en réalité pas le cas. Je me trompe sur l'année de naissance de Geoff. Il y a une photo du certificat.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

D'ailleurs, le célèbre spécialiste de l'IA né en 1963 est Jürgen Schmidhuber.

Puisque ce n’est pas le modèle d’IA qui est faux, voyons quels changements la nouvelle méthode de Google peut apporter aux modèles pré-entraînés.

Papier : Mise à l'échelle des modèles de langage affinés par les instructions

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.


  • Adresse papier : https://arxiv.org/abs/2210.11416
  • Modèle public : https ://github.com/google-research/t5x/blob/main/docs/models.md#flan-t5-checkpoints

Cette étude utilise un modèle de paramètres 540B pour entraîner Flan-PaLM, ce qui conviendra -ajuster le nombre de tâches augmenté à plus de 1 800 et inclut les données de chaîne de pensée (CoT ; Wei et al., 2022b). Le Flan-PaLM formé surpasse PaLM et atteint un nouveau SOTA sur plusieurs benchmarks. En termes de capacités de raisonnement, Flan-PaLM est capable de tirer parti du CoT et de l'auto-cohérence (Wang et al., 2022c) pour atteindre une précision de 75,2 % sur la compréhension du langage multitâche à grande échelle (MMLU ; Hendrycks et al., 2020). Taux.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

De plus, Flan-PaLM fonctionne nettement mieux que PaLM sur un ensemble de problèmes génératifs ouverts et difficiles, avec une convivialité considérablement améliorée.

Dans l'ensemble, cette étude de Google met en lumière des manières spécifiques d'utiliser le réglage fin des instructions pour améliorer les performances du modèle.

Méthode

Plus précisément, cette recherche se concentre principalement sur plusieurs aspects qui affectent le réglage fin de l'enseignement, notamment : (1) l'augmentation du nombre de tâches, (2) l'augmentation de la taille du modèle et (3) l'ajustement fin de la données de la chaîne de pensée.

L'étude a révélé que le réglage fin de l'instruction avec les aspects ci-dessus améliorait considérablement diverses classes de modèles (PaLM, T5, U-PaLM), les paramètres d'invite (zéro-coup, quelques-coups, CoT) et les critères d'évaluation (MMLU, BBH, TyDiQA, MGSM, génération ouverte). Par exemple, le Flan-PaLM 540B avec réglage fin des instructions surpasse largement le PALM 540B sur 1,8K tâches (+9,4 % en moyenne). Le Flan-PaLM 540B atteint des performances de pointe sur plusieurs tests, tels que 75,2 % sur cinq MMLU.

Les chercheurs ont également divulgué le point de contrôle Flan-T5, qui atteint de solides performances en quelques tirs, même par rapport à des modèles plus grands tels que le PaLM 62B. Dans l’ensemble, le réglage fin de l’instruction est une approche générale visant à améliorer les performances et la convivialité des modèles linguistiques pré-entraînés.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

Figure 1. Les chercheurs ont affiné divers modèles de langage sur plus de 1 800 tâches, avec/sans échantillons (zéro échantillon et quelques échantillons) et avec/sans chaînes de pensée. Le réglage fin permet une généralisation sur une gamme de scénarios d’évaluation.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

Figure 2. Les données de réglage fin comprennent 473 ensembles de données, 146 catégories de tâches et un total de 1836 tâches.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

Une fois les processus de réglage fin des données et de réglage du programme terminés, les chercheurs ont comparé l'impact de l'expansion de l'échelle en fonction des performances de la taille du modèle sur la tâche. Premièrement, pour les trois tailles de modèles, le réglage fin des instructions multitâches entraîne d'importantes améliorations des performances par rapport à l'absence de réglage fin, avec des gains allant de 9,4 % à 15,5 %. Deuxièmement, augmenter le nombre de tâches de réglage fin peut améliorer les performances.

Enfin, nous pouvons voir qu'augmenter la taille du modèle d'un ordre de grandeur (8B → 62B ou 62B → 540B) peut améliorer considérablement les performances des modèles affinés et non affinés.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

L'impact du réglage fin des instructions multitâches sur la précision par rapport à la taille du modèle (quantité de paramètres) et l'expansion du nombre et de l'échelle des tâches de réglage fin.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

L'augmentation du nombre de tâches dans les données de réglage fin améliore les performances de Flan-PaLM sur la plupart des benchmarks d'évaluation.

Les chercheurs démontrent que l'inclusion de neuf ensembles de données annotés avec des chaînes de pensées (CoT) dans un mélange affiné améliore les capacités d'inférence. Le tableau ci-dessous montre que les capacités d'invite CoT de Flan-PaLM surpassent PaLM sur les quatre critères d'évaluation retenus.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

Cette étude a révélé qu'un autre avantage des instructions de réglage fin pour les données CoT est qu'elles peuvent réaliser une inférence sans tir. Le modèle génère lui-même des capacités d'inférence sans un petit nombre d'échantillons pour CoT. nécessitent de nombreux ajustements techniques pour réussir.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

Figure 6 : Performances sans tir de PaLM et Flan-PaLM sur un ensemble de 23 tâches BIG-Bench (BBH) difficiles. Flan-PaLM nécessite la génération d'une Chaîne de Pensées (CoT) activée par la commande "Pensons pas à pas".

Pour démontrer la généralité de la nouvelle méthode, Google a formé T5, PaLM et U-PaLM, couvrant une gamme de tailles de modèles allant de 80 millions à 540 milliards de paramètres, et a constaté que tous les modèles peuvent améliorer considérablement les performances.

3 milliards ont dépassé les 175 milliards de GPT-3. Le nouveau modèle de Google a suscité de vives discussions, mais il sest trompé sur lâge de Hinton.

Tableau 5. Le réglage fin des instructions (Flan) améliore les performances par rapport aux autres méthodes de pré-entraînement continu.

Après les tests, le réglage précis des instructions a considérablement amélioré les performances moyennes normalisées de tous les types de modèles, le modèle T5 bénéficiant le plus du réglage précis des instructions par rapport aux modèles non réglés. Ces résultats sont assez solides pour certains benchmarks : par exemple, Flan-T5-XL a atteint un score MMLU de 47,6 % avec seulement 3 milliards de paramètres, dépassant le score de 43,9 % du GPT-3 avec 175 milliards de paramètres.

En plus des benchmarks NLP, les modèles de langage sont également capables de générer des réponses longues aux demandes de questions ouvertes. À cet égard, les références standard de la PNL et les mesures automatisées utilisées pour les évaluer sont insuffisantes pour mesurer les préférences humaines. Les chercheurs ont évalué cela en créant un ensemble d’évaluation de 190 exemples. L'ensemble d'évaluation se compose de questions posées au modèle de manière générale dans cinq catégories difficiles de 20 questions chacune : créativité, raisonnement contextuel, raisonnement complexe, planification et explication.

Pour 60 de ces exemples (issus des catégories de raisonnement complexe, de planification et d'explication), l'étude a créé une variation avec une phrase déclenchante de la chaîne de pensée (par exemple, « Pensons étape par étape ») comme coup de pouce. Une autre évaluation a été menée sur l’opportunité d’activer le tir zéro sur le CoT. En plus des 160 entrées zéro-shot mentionnées ci-dessus, l'étude comprenait également 30 entrées pour tester les capacités de quelques-shots où des modèles de langage forts sans ajustement pédagogique se sont avérés performants.

Les chercheurs pensent que le réglage fin des instructions et l'expansion de l'échelle peuvent améliorer continuellement les performances des grands modèles de langage, et que le réglage fin est crucial pour les capacités de raisonnement et peut également généraliser les capacités des modèles. En combinant le réglage fin des instructions avec d'autres techniques d'adaptation de modèles telles que UL2R, Google propose le modèle Flan-U-PaLM le plus puissant de ce travail.

Il est important de noter que le réglage fin des instructions n'augmente pas de manière significative le coût de calcul comme l'expansion de l'échelle du modèle. Par exemple, pour le PaLM 540B, le réglage fin des instructions ne nécessite que 0,2 % des calculs préalables à la formation, mais il peut normaliser l'évaluation croisée. L’augmentation moyenne a été de 9,4 %. Les petits modèles qui utilisent des nudges directifs peuvent parfois surpasser les modèles plus grands sans nudges.

Pour ces raisons, les chercheurs recommandent un réglage fin des instructions pour presque tous les modèles linguistiques pré-entraînés.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Comment commenter Deepseek Comment commenter Deepseek Feb 19, 2025 pm 05:42 PM

Deepseek est un puissant outil de récupération d'informations. .

Comment rechercher Deepseek Comment rechercher Deepseek Feb 19, 2025 pm 05:39 PM

Deepseek est un moteur de recherche propriétaire qui ne recherche que dans une base de données ou un système spécifique, plus rapide et plus précis. Lorsque vous l'utilisez, il est conseillé aux utilisateurs de lire le document, d'essayer différentes stratégies de recherche, de demander de l'aide et des commentaires sur l'expérience utilisateur afin de tirer le meilleur parti de leurs avantages.

Sesame Open Door Exchange Page d'enregistrement de page Enregistrement Gate Trading App The Registration Site Web Sesame Open Door Exchange Page d'enregistrement de page Enregistrement Gate Trading App The Registration Site Web Feb 28, 2025 am 11:06 AM

Cet article présente le processus d'enregistrement de la version Web de Sesame Open Exchange (GATE.IO) et l'application Gate Trading en détail. Qu'il s'agisse de l'enregistrement Web ou de l'enregistrement de l'application, vous devez visiter le site Web officiel ou l'App Store pour télécharger l'application authentique, puis remplir le nom d'utilisateur, le mot de passe, l'e-mail, le numéro de téléphone mobile et d'autres informations et terminer la vérification des e-mails ou du téléphone mobile.

Pourquoi le lien d'échange de Bybit ne peut-il pas être téléchargé directement et installé? Pourquoi le lien d'échange de Bybit ne peut-il pas être téléchargé directement et installé? Feb 21, 2025 pm 10:57 PM

Pourquoi le lien d'échange de Bybit ne peut-il pas être téléchargé directement et installé? Bybit est un échange de crypto-monnaie qui fournit des services de trading aux utilisateurs. Les applications mobiles de l'échange ne peuvent pas être téléchargées directement via AppStore ou GooglePlay pour les raisons suivantes: 1. La politique de l'App Store empêche Apple et Google d'avoir des exigences strictes sur les types d'applications autorisées dans l'App Store. Les demandes d'échange de crypto-monnaie ne répondent souvent pas à ces exigences car elles impliquent des services financiers et nécessitent des réglementations et des normes de sécurité spécifiques. 2. Conformité des lois et réglementations Dans de nombreux pays, les activités liées aux transactions de crypto-monnaie sont réglementées ou restreintes. Pour se conformer à ces réglementations, l'application ByBit ne peut être utilisée que via des sites Web officiels ou d'autres canaux autorisés

Sesame Open Door Trading Platform Download Version mobile Gateio Trading Plateforme de téléchargement Adresse de téléchargement Sesame Open Door Trading Platform Download Version mobile Gateio Trading Plateforme de téléchargement Adresse de téléchargement Feb 28, 2025 am 10:51 AM

Il est crucial de choisir un canal formel pour télécharger l'application et d'assurer la sécurité de votre compte.

Top 10 recommandé pour l'application de trading d'actifs numériques crypto (2025 Global Ranking) Top 10 recommandé pour l'application de trading d'actifs numériques crypto (2025 Global Ranking) Mar 18, 2025 pm 12:15 PM

Cet article recommande les dix principales plates-formes de trading de crypto-monnaie qui méritent d'être prêtées, notamment Binance, Okx, Gate.io, Bitflyer, Kucoin, Bybit, Coinbase Pro, Kraken, Bydfi et Xbit décentralisées. Ces plateformes ont leurs propres avantages en termes de quantité de devises de transaction, de type de transaction, de sécurité, de conformité et de fonctionnalités spéciales. Le choix d'une plate-forme appropriée nécessite une considération complète en fonction de votre propre expérience de trading, de votre tolérance au risque et de vos préférences d'investissement. J'espère que cet article vous aide à trouver le meilleur costume pour vous-même

Sesame Open Door Exchange Page Web Login Dernière version GATEIO Entrée du site officiel Sesame Open Door Exchange Page Web Login Dernière version GATEIO Entrée du site officiel Mar 04, 2025 pm 11:48 PM

Une introduction détaillée à l'opération de connexion de la version Web Sesame Open Exchange, y compris les étapes de connexion et le processus de récupération de mot de passe.

Binance Binance Site officiel Dernière version Portail de connexion Binance Binance Site officiel Dernière version Portail de connexion Feb 21, 2025 pm 05:42 PM

Pour accéder à la dernière version du portail de connexion du site Web de Binance, suivez simplement ces étapes simples. Accédez au site officiel et cliquez sur le bouton "Connectez-vous" dans le coin supérieur droit. Sélectionnez votre méthode de connexion existante. Entrez votre numéro de mobile ou votre mot de passe enregistré et votre mot de passe et complétez l'authentification (telles que le code de vérification mobile ou Google Authenticator). Après une vérification réussie, vous pouvez accéder à la dernière version du portail de connexion du site Web officiel de Binance.

See all articles