Lorsqu'ils expliquent les capacités de copie publicitaire et de génération de bannières de SoMin, les gens demandent souvent si GPT-3 a été remplacé par ChatGPT ou s'il fonctionne toujours dans un mode obsolète.
Lorsqu'ils expliquent les capacités de copie publicitaire et de génération de bannières de SoMin, les gens demandent souvent si GPT-3 a été remplacé par ChatGPT ou s'il fonctionne toujours dans un mode obsolète. "Nous ne l'avons pas fait et n'envisageons pas de le faire", a répondu un porte-parole de SoMin, même si le chatbot ChatGPT lancé par OpenAI est en plein essor. Cela surprend souvent le client, alors voici une explication des raisons pour lesquelles il donnerait une telle réponse.
GPT-2, GPT-3, ChatGPT et le GPT-4 récemment lancé appartiennent tous au même type de modèle d'intelligence artificielle - Transformer. Cela signifie que, contrairement aux modèles d’apprentissage automatique des générations précédentes, ils sont formés pour accomplir une tâche plus uniforme, de sorte qu’ils n’ont pas besoin d’être recyclés pour chaque tâche spécifique afin de produire des résultats exploitables. Ce dernier explique leur taille massive (175 milliards de paramètres dans le cas de GPT-3), alors qu'un modèle pourrait avoir besoin de « mémoriser l'intégralité d'Internet » pour être suffisamment flexible pour basculer entre différents éléments de données en fonction des entrées de l'utilisateur. Le modèle est alors capable de générer des résultats lorsque l'utilisateur saisit une question de requête, une description de la tâche et quelques exemples (comme si vous demandiez à un bibliothécaire des livres d'intérêt). Cette approche est appelée « apprentissage en quelques étapes » et est devenue récemment une tendance en fournissant une contribution aux modèles Transformer modernes.
Mais est-il toujours nécessaire de tout savoir sur Internet pour accomplir la tâche en cours ? Bien sûr que non - dans de nombreux cas, comme ChatGPT, de grands (millions) échantillons de données spécifiques à la tâche sont nécessaires, ces échantillons permettront au modèle pour lancer le processus « Reinforcement Learning from Human Feedback (RLHF) ». À son tour, le RLHF développera un processus de formation collaboratif entre l’IA et les humains pour former davantage les modèles d’IA afin de produire des conversations de type humain. Par conséquent, ChatGPT excelle non seulement dans le scénario du chatbot, mais aide également les gens à rédiger du contenu court (comme des poèmes ou des paroles) ou du contenu long (comme des essais lorsque les gens ont besoin d'obtenir des réponses rapidement, en termes simples ou) ; connaissances approfondies Expliquer des sujets complexes ; proposer un brainstorming, de nouveaux sujets et idées utiles dans le processus de création, soutenir le service commercial dans la communication personnalisée, comme la génération d'e-mails auxquels répondre.
Bien qu'il soit techniquement possible pour un grand modèle de Transformer de tenter d'accomplir ces tâches, il est peu probable que cela soit accompli par ChatGPT ou même GPT-4 - en effet, ChatGPT et les autres Transformers d'OpenAI ont une connaissance très limitée de ce qui se passe dans le monde, car ce sont des modèles pré-entraînés, de sorte que leurs données ne sont pas mises à jour assez fréquemment en raison des exigences informatiques très élevées du recyclage des modèles. C'est probablement la plus grande lacune de tous les modèles pré-entraînés produits par OpenAI (et par n'importe qui d'autre) à ce jour. Un problème plus important est spécifique à ChatGPT : contrairement à GPT-3, il a été formé sur un ensemble de données conversationnelles très ciblées, ce n'est donc que dans les tâches conversationnelles que ChatGPT surpasse ses prédécesseurs, tout en accomplissant d'autres tâches humaines. moins avancé.
Les gens savent désormais que ChatGPT n'est qu'une version plus petite et plus spécifique de GPT-3, mais cela signifie-t-il qu'il y aura davantage de ces modèles dans un avenir proche : pour la commercialisation de MarGPT, AdGPT pour la publicité numérique, MedGPT pour répondre aux questions médicales ?
C'est possible et voici pourquoi : Lorsque la société SoMin a soumis une demande pour accéder à GPT-3 Beta, il suffit de la remplir. Un long formulaire de candidature a été remis expliquant en détail le logiciel actuel. qui serait construit, mais il lui a été demandé d'accepter de fournir des commentaires sur la façon dont le modèle était utilisé au quotidien et sur les résultats reçus. La société OpenAI a fait cela pour une raison, principalement parce qu'il s'agissait d'un projet de recherche et qu'elle avait besoin d'informations commerciales sur les meilleures applications du modèle, et elle l'a financé en échange de la chance de participer à cette grande révolution de l'intelligence artificielle. Les applications Chatbot semblent être l’une des plus populaires, donc ChatGPT vient en premier. ChatGPT est non seulement plus petit (20 milliards de paramètres contre 175 milliards de paramètres), mais aussi plus rapide et plus précis que GPT-3 pour résoudre les tâches conversationnelles - pour un produit d'IA à faible coût et de haute qualité. Pour moi, c'est une entreprise parfaite cas.
Alors, en matière d’IA générative, est-ce qu’il vaut mieux être plus grand ? La réponse est que cela dépend. Lorsqu’on construit un modèle d’apprentissage général capable d’accomplir de nombreuses tâches, la réponse est oui, plus c’est gros, mieux c’est, comme en témoignent les avantages de GPT-3 par rapport à GPT-2 et à d’autres prédécesseurs. Mais lorsque l’on veut bien effectuer une tâche spécifique, comme le chatbot dans ChatGPT, alors la concentration sur les données et un processus de formation approprié sont bien plus importants que le modèle et la taille des données. C'est pourquoi chez SoMin, au lieu d'utiliser ChatGPT pour générer des textes et des bannières, des données spécifiques liées aux publicités numériques sont utilisées pour guider GPT-3 afin de créer un meilleur contenu pour les nouvelles publicités qui n'ont pas encore été vues.
Alors, on pourrait se demander, comment l'avenir de l'IA générative va-t-il se développer ? La multimodalité sera l'une des avancées inévitables que les gens verront dans le prochain GPT-4, comme l'a mentionné le PDG d'OpenAI, Sam Altman, dans son discours. Dans le même temps, Altman a également dissipé la rumeur selon laquelle le modèle comporte 100 000 milliards de paramètres. Par conséquent, les gens savent que plus grand ne signifie pas toujours meilleur dans ce type de modèle d’intelligence artificielle.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!