Maison > Périphériques technologiques > IA > le corps du texte

Quelles informations devez-vous connaître sur les applications GPT-4 ?

王林
Libérer: 2023-05-09 19:43:17
avant
1109 Les gens l'ont consulté

Depuis qu'OpenAI a publié le grand modèle de langage GPT-4, les gens ont essayé d'utiliser cette application passionnante. GPT-4 peut générer du code HTML à partir de modèles de sites Web dessinés à la main. De nombreux utilisateurs ont prouvé qu'il pouvait trouver des adresses physiques à partir de transactions par carte de crédit, générer des projets de procès, réussir des tests de mathématiques SAT, aider à l'éducation et à la formation et même créer des jeux de tir à la première personne.

Quelles informations devez-vous connaître sur les applications GPT-4 ?

La puissance de GPT-4 est vraiment incroyable, et à mesure que de plus en plus d'utilisateurs accèdent à sa version multimodale, on peut s'attendre à ce que davantage de modèles linguistiques à grande échelle soient lancés. Cependant, si l’on célèbre les progrès réalisés par les scientifiques dans le domaine des modèles linguistiques à grande échelle, leurs limites doivent également être notées.

Les grands modèles de langage comme GPT-4 peuvent effectuer de nombreuses tâches, mais ils ne sont pas nécessairement les meilleurs outils pour elles. S’ils accomplissent une tâche avec succès, cela ne signifie pas qu’ils sont plus fiables dans ce domaine.

Percée scientifique dans les modèles de langage à grande échelle

GPT-4 a incité de nombreux utilisateurs à critiquer OpenAI après sa sortie, dont beaucoup sont justifiées. À chaque version de GPT, leurs détails techniques deviennent de plus en plus opaques. Le rapport technique publié par OpenAI lors de la publication de GPT-4 contenait peu de détails sur l'architecture du modèle, les données de formation et d'autres aspects importants. Divers signes indiquent qu'OpenAI se transforme progressivement d'un laboratoire de recherche en intelligence artificielle en une entreprise vendant des produits d'intelligence artificielle.

Cependant, cela ne diminue en rien les percées technologiques fascinantes permises par les grands modèles de langage. La société OpenAI a joué un rôle important dans le développement de ces technologies. En quelques années seulement, nous sommes passés des modèles d’apprentissage profond les plus médiocres gérant des tâches linguistiques à de grands modèles de langage capables de générer un texte très humain, du moins en surface.

De plus, avec suffisamment de paramètres, de puissance de calcul et de données de formation, Transformer (une architecture utilisée dans les grands modèles de langage) peut apprendre à effectuer plusieurs tâches à l'aide d'un seul modèle. Ceci est important car, jusqu’à récemment, on pensait que les modèles d’apprentissage profond ne convenaient qu’à l’exécution d’une seule tâche. Les grands modèles de langage peuvent désormais effectuer plusieurs tâches en apprenant avec un tir nul et quelques instantanés, et même montrer des capacités émergentes lors de la mise à l'échelle.

ChatGPT démontre pleinement les dernières capacités des modèles linguistiques à grande échelle. Il peut effectuer du codage, des questions-réponses, la génération de texte et de nombreuses autres tâches en une seule conversation. Il suit mieux les instructions grâce à une technique d’entraînement appelée Reinforcement Learning from Human Feedback (RLHF).

GPT-4 et d'autres modèles de langage multimodal affichent une nouvelle vague de fonctionnalités, telles que l'inclusion d'images et de messages vocaux dans les conversations.

Quelles sont les bonnes applications de GPT-4 ?

Une fois que vous regardez au-delà des réalisations scientifiques, vous pouvez commencer à réfléchir aux applications que les grands modèles de langage comme GPT-4 peuvent fournir. Pour les gens, le principe directeur pour déterminer si les grands modèles de langage sont adaptés à une application est leur mécanique.

Comme d'autres modèles d'apprentissage automatique, les grands modèles de langage sont des machines prédictives. Sur la base des modèles présents dans les données d'entraînement, ils prédisent le prochain jeton dans la séquence d'entrée qu'ils reçoivent, et ils le font très efficacement.

La prédiction du prochain jeton est une excellente solution pour certaines tâches comme la génération de texte. Lorsqu'un grand modèle de langage est formé avec des instructions suivant des techniques telles que RLHF, il peut effectuer des tâches linguistiques telles que rédiger des articles, résumer du texte, expliquer des concepts et répondre à des questions avec des résultats étonnants. Il s’agit de l’une des solutions les plus précises et les plus utiles actuellement disponibles pour les grands modèles linguistiques.

Cependant, les grands modèles de langage sont encore limités dans leurs capacités de génération de texte. Les grands modèles de langage hallucinent souvent ou inventent des choses incorrectes. Il ne faut donc pas leur faire confiance en tant que source de connaissances. Cela inclut GPT-4. Par exemple, lors d'une exploration de ChatGPT par des experts du secteur, il a été constaté qu'il peut parfois générer des descriptions très éloquentes sur des sujets complexes, tels que le fonctionnement de l'apprentissage profond. Cela s'est avéré utile lorsqu'il essayait d'expliquer un concept à quelqu'un qui pourrait ne pas le comprendre, mais il a également constaté que ChatGPT pouvait également commettre des erreurs factuelles.

Pour la génération de texte, la règle générale des experts du secteur est de ne faire confiance à GPT-4 que dans les domaines que vous connaissez et dont le résultat peut être vérifié. Il existe des moyens d'améliorer la précision du résultat, notamment en affinant le modèle avec des connaissances de domaine spécifiques ou en fournissant un contexte pour l'invite en ajoutant des informations pertinentes avant celle-ci. Mais encore une fois, ces méthodes nécessitent de connaître suffisamment le domaine pour pouvoir apporter des connaissances supplémentaires. Par conséquent, ne faites pas confiance à GPT-4 pour générer du texte sur la santé, les conseils juridiques ou la science, à moins que vous ne connaissiez déjà ces sujets.

La génération de code est une autre application intéressante de GPT-4. Les experts du secteur ont examiné GitHub Copilot, qui est basé sur une version modifiée de GPT-3 et porte le nom de Codex. La génération de code devient de plus en plus efficace lorsqu'elle est intégrée à son IDE, tel que Copilot, et peut utiliser le code existant comme scénarios pour améliorer la sortie d'un modèle de langage volumineux. Cependant, les mêmes règles s'appliquent toujours. Utilisez uniquement des modèles de langage volumineux pour générer un code entièrement vérifiable. Faire aveuglément confiance à de grands modèles de langage peut conduire à un code non fonctionnel et dangereux.

Quelles sont les mauvaises applications de GPT-4 ?

Pour certaines tâches, les modèles de langage comme GPT-4 ne sont pas une solution idéale, même s'ils peuvent la résoudre Exemple. Par exemple, l’un des sujets fréquemment abordés est la capacité des grands modèles de langage à effectuer des mathématiques. Ils ont été testés sur différents benchmarks mathématiques. GPT-4 aurait de très bons résultats lors de tests mathématiques complexes.

Cependant, il convient de noter que les grands modèles de langage ne calculent pas les équations mathématiques étape par étape comme le font les humains. Lorsque GPT-4 reçoit l'invite « 1+1 = », les utilisateurs recevront la bonne réponse. Mais en coulisses, il n’effectue pas les opérations « ajouter » et « déplacer ». Il effectue les mêmes opérations matricielles que toutes les autres entrées, prédisant le prochain jeton de la séquence. Il donne une réponse probabiliste à une question déterministe. C'est pourquoi la précision de GPT-4 et d'autres modèles mathématiques de grand langage dépend fortement de l'ensemble de données de formation et fonctionne au hasard. On pourrait les voir obtenir des résultats étonnants sur des problèmes mathématiques très complexes, mais échouer sur des problèmes mathématiques élémentaires simples.

Cela ne veut pas dire que GPT-4 n'est pas utile pour les mathématiques. Une approche consiste à utiliser des techniques d'augmentation de modèle, telles que la combinaison de grands modèles de langage avec des solveurs mathématiques. Le grand modèle de langage extrait les données de l'équation de l'invite et les transmet au solveur, qui calcule et renvoie le résultat.

Un autre cas d'utilisation intéressant de GPT-4 est ce que fait Khan Academy. Ils intègrent des cours de modèles linguistiques à grande échelle dans leur plateforme d’apprentissage en ligne pour servir de tuteurs aux apprenants et d’assistants aux enseignants. Puisqu'il s'agissait de l'un des partenaires annoncés par OpenAI lors de la sortie de GPT-4, ils ont peut-être affiné GPT-4 en fonction du contenu de leur cours. Le modèle s'intègre également bien au contenu de la plateforme pour fournir des scénarios et réduire les erreurs. Mais il convient de noter que GPT-4 n’est pas conçu pour résoudre des problèmes mathématiques, mais pour guider les étudiants et les enseignants dans l’apprentissage et l’enseignement de concepts mathématiques.

GPT-4 en tant que produit

Une fois qu'un utilisateur a décidé si GPT-4 convient à son application, il doit être considéré du point de vue du produit. Chaque token généré par GPT-4 est le résultat de centaines de milliards d'opérations. La première question qu'un utilisateur doit se poser est : « Mon application a-t-elle besoin d'un tel calcul ? » En fait, dans de nombreux cas, même si GPT-4 fournit une réponse parfaite, il peut exister une solution plus simple, plus rapide et moins coûteuse. Par exemple, dans de nombreux cas, des solutions simples telles que les expressions régulières sont plus efficaces pour extraire des informations.

En fait, les experts du secteur ont eu une conversation intéressante avec ChatGPT, dans laquelle ils ont demandé à ChatGPT ce que signifie « GPT-ify ». ChatGPT le décrit comme « la technologie et les capacités des modèles de langage basés sur des architectures GPT (Generate Pretrained Transformer), telles que GPT-3 ou GPT-Neo, appliquées à des tâches ou à des problèmes spécifiques. »

Experts du secteur. a ensuite demandé si GPT-ify pouvait être utilisé pour se moquer des personnes qui utilisent GPT pour faire des choses qui n'en ont pas besoin. ChatGPT a répondu de cette manière : "Oui, GPT-ify peut certainement être utilisé de manière sarcastique ou sarcastique pour suggérer que quelqu'un abuse ou abuse de GPT pour une tâche ou un problème qui ne nécessite pas un modèle de langage aussi complexe. Par exemple, si quelqu'un utilise un pré- Modèle GPT formé pour générer une liste de courses simple, quelqu'un pourrait plaisanter en disant qu'il a « GPTifié sa liste de courses »

Alors ne prenez pas de décision concernant un produit sans explorer d'autres options de GPTisation. Comme toutes les autres technologies, GPT-4 doit être considéré comme l’un des nombreux outils d’une boîte à outils produit. Comme le conseille ChatGPT, "La clé est de choisir le bon outil pour le travail, en fonction des exigences et des contraintes spécifiques de la tâche en cours."

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal