Nouvelle du 4 avril, le dernier modèle de langage d'OpenAI, GPT-4, est non seulement capable de générer divers textes comme les humains, mais peut également concevoir et exécuter des tests pour évaluer et améliorer ses propres performances. Cette technologie de « réflexion » a permis à GPT-4 d'obtenir des améliorations significatives dans de nombreux tests difficiles, avec des performances de test améliorées de 30 %.
GPT-4 est le système le plus avancé lancé par OpenAI après GPT, GPT-2 et GPT-3, et est actuellement le plus grand modèle multimodal (peut accepter la saisie et la sortie d'images et de texte). Il exploite la technologie d’apprentissage profond, en utilisant des réseaux de neurones artificiels pour imiter l’écriture humaine.
Les chercheurs Noah Shinn et Ashwin Gopinath ont écrit dans l'article : « Nous avons développé une nouvelle technologie qui permet aux agents d'IA de simuler le moi humain. Réfléchissez et évaluez vos propres performances. Lors de la réalisation de divers tests, GPT-4 ajoutera quelques étapes supplémentaires, lui permettant de concevoir ses propres tests pour vérifier ses propres réponses, identifier les erreurs et les lacunes, puis s'améliorer en fonction de ses résultats. Modifiez votre propre solution. boucle réfléchissante, et la précision augmente de 67% à 88%
GPT-4 peut réussir le test de conception et d'exécution Pour critiquer ses propres performances, comme le montrent les résultats du test AlfWorld, ses performances peuvent être grandement améliorées
L'équipe de recherche a utilisé cette technologie pour effectuer plusieurs tests de performances différents sur GPT-4. Dans le test HumanEval, GPT-4 devait résoudre 164 problèmes de programmation Python inédits. La précision d'origine était de 67 %. Après avoir utilisé la technologie de réflexion, la précision est passée à 88 %. Dans le test Alfworld, l'IA doit prendre des décisions et résoudre des tâches en plusieurs étapes en effectuant un certain nombre d'opérations autorisées dans une variété d'environnements interactifs différents. Après avoir utilisé des techniques de réflexion, la précision de GPT-4 est passée de 73 % à 97 %, avec seulement 4 échecs de tâches. Dans le test HotPotQA, GPT-4 a accédé à Wikipédia et a répondu à 100 questions nécessitant l'analyse du contenu et le raisonnement de plusieurs documents justificatifs. La précision d'origine était de 34 %. Après avoir utilisé la technologie de réflexion, la précision est passée à 54 %.
Cette recherche montre que les solutions aux problèmes d’IA reposent parfois sur l’IA elle-même. IT House a découvert qu'il s'agit d'un réseau antagoniste génératif, qui est une méthode permettant à deux IA d'améliorer mutuellement leurs compétences. Par exemple, une IA essaie de générer des images qui ressemblent à de vraies images et l'autre essaye de les distinguer. lesquels sont faux. lesquels sont vrais. Mais dans ce cas, GPT est à la fois écrivain et éditeur, utilisant l’autoréflexion pour améliorer la qualité de sa production.Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!