


Président d'OpenAI : GPT-4 n'est pas parfait mais il est définitivement différent
Nouvelles le 16 mars, la société de recherche en intelligence artificielle OpenAI a publié hier le très attendu modèle d'IA de génération de texte GPT-4. Greg Brockman, co-fondateur et président d'OpenAI, a déclaré dans une interview que GPT-4 n'est pas parfait, mais qu'il est définitivement différent.
GPT-4 améliore son prédécesseur GPT-3 à bien des égards, par exemple en fournissant des représentations plus véridiques et en permettant aux développeurs de contrôler plus facilement son style et son comportement. GPT-4 est également multimodal dans le sens où il peut comprendre les images, ajouter des annotations aux photos et même décrire en détail le contenu de la photo.
Mais GPT-4 présente également de sérieux défauts. Tout comme GPT-3, le modèle souffre d'« illusions » (c'est-à-dire que le texte agrégé par le modèle n'est pas pertinent ou suffisamment inexact par rapport au texte source) et commet des erreurs d'inférence basiques. OpenAI a donné un exemple sur son blog, GPT-4 décrivant « Elvis Presley » comme « le fils d'un acteur », mais en fait aucun de ses parents n'était acteur.
Lorsqu'on lui a demandé de comparer GPT-4 à GPT-3, Brockman n'a donné qu'une réponse en quatre mots : différent. Il a expliqué : « GPT-4 est définitivement différent, même s'il présente encore beaucoup de problèmes et de bugs. Mais vous pouvez constater une augmentation des compétences dans des matières comme le calcul ou le droit. Il a obtenu de très mauvais résultats dans certains domaines, mais maintenant il a atteint un niveau au-delà de celui des gens ordinaires. »
Les résultats des tests soutiennent le point de vue de Brockman. Dans le test de calcul d'entrée à l'université, GPT-4 obtient 4 points (sur 5 points), GPT-3 obtient 1 point et GPT-3.5, qui se situe entre GPT-3 et GPT-4, obtient également 4 points. . Lors de l'examen simulé du barreau, les scores GPT-4 entraient dans les 10 % supérieurs, tandis que les scores GPT-3,5 se situaient autour des 10 % inférieurs.
En même temps, ce qui attire le plus l'attention sur GPT-4, c'est le multi-mode mentionné ci-dessus. Contrairement à GPT-3 et GPT-3.5, qui ne peuvent accepter que des invites textuelles, telles que demander « d'écrire un article sur les girafes », GPT-4 peut accepter à la fois des invites d'image et de texte pour effectuer certaines opérations, telles que l'identification de personnes dans une image. d'une girafe capturée dans le Serengeti, avec une description sommaire du contenu.
En effet, GPT-4 est entraîné sur des données d'image et de texte, alors que son prédécesseur a été entraîné sur du texte uniquement. OpenAI a déclaré que les données de formation proviennent de « diverses sources de données légalement autorisées et accessibles au public, qui peuvent inclure des informations personnelles accessibles au public », mais lorsqu'on lui a demandé de fournir des détails, Brockman a refusé. Les données de formation ont déjà posé à OpenAI des problèmes juridiques. Les capacités de compréhension d’images de
GPT-4 sont assez impressionnantes. Par exemple, en tapant la question « Qu'est-ce qu'il y a de si drôle dans cette image ? » GPT-4 décomposera l'image entière et interprétera correctement la punchline de la blague.
Actuellement, un seul partenaire a accès à la fonction d'analyse d'image de GPT-4. une application d'assistance pour les malvoyants appelée Be My Eyes, dit Brockman dont le déploiement à plus grande échelle sera « lent à se produire » chaque fois qu'il est en train d'évaluer les risques, les avantages et les inconvénients. »
Il a également déclaré : « Là. Certaines questions politiques doivent être résolues, telles que la reconnaissance faciale et la manière de traiter les images des personnes. Nous devons déterminer où se situent les zones de danger, où se trouvent les lignes rouges, puis trouver des solutions au fil du temps. «
OpenAI a été confronté à un dilemme éthique similaire avec son système de conversion texte-image, Dall-E 2. Après avoir initialement désactivé la fonctionnalité, OpenAI a permis aux clients de télécharger des visages à modifier à l'aide du système de génération d'images alimenté par l'IA. À l'époque, OpenAI a affirmé que les mises à niveau de son système de sécurité rendaient possible la fonctionnalité d'édition faciale car elle minimisait les dommages potentiels des deepfakes et des tentatives de création de contenu pornographique, politique et violent.
Un autre problème à long terme est d'empêcher l'utilisation de GPT-4. Quelques heures après la publication du modèle, la startup israélienne de cybersécurité Adversa AI a publié un article de blog démontrant le contournement des filtres de contenu d'OpenAI et permettant à GPT-4 de générer des e-mails de phishing, des descriptions offensantes de personnes homosexuelles et d'autres textes répréhensibles. Nouveau problème dans le monde des modèles de langage. Le chatbot BlenderBot de la société mère de Facebook et ChatGPT d'OpenAI ont également été tentés de publier du contenu inapproprié, révélant même des détails sensibles de leur fonctionnement interne, mais beaucoup, y compris des journalistes, avaient espéré que GPT-4. pourrait apporter des améliorations significatives à cet égard.
Interrogé sur la robustesse de GPT-4, Brockman a souligné que le modèle a suivi six mois de formation en matière de sécurité et que lors des tests internes, il était 82 % moins susceptible de répondre à GPT-3.5. demandes de contenu non autorisées par la politique d'utilisation d'OpenAI, produisant des « faits ». « La probabilité d'une réponse est 40 % plus élevée que GPT-3.5.
Nous avons passé beaucoup de temps à essayer de comprendre de quoi GPT-4 est capable. » » dit Brockman. Nous le mettons continuellement à jour pour inclure une série d'améliorations afin que le modèle soit plus évolutif pour s'adapter à la personnalité ou au mode que les gens souhaitent lui donner. »
Franchement, les premiers résultats des tests réels ne sont pas très satisfaisants. En plus du test Adversa AI, le chatbot Bing Chat de Microsoft s'est également révélé très facile à jailbreaker. À l’aide d’entrées soigneusement conçues, les utilisateurs peuvent demander au chatbot d’exprimer de l’affection, de menacer de nuire, de justifier des meurtres de masse et d’inventer des théories du complot.
Brockman n'a pas nié que GPT-4 ne répond pas aux attentes dans ce domaine, mais il a souligné les nouveaux outils de limitation du modèle, notamment une fonctionnalité au niveau de l'API appelée messages « système ». Les messages système sont essentiellement des instructions qui donnent le ton et établissent les limites des interactions avec GPT-4. Par exemple, un message système pourrait être le suivant : "Vous êtes un tuteur qui répond toujours aux questions dans un style socratique. Vous ne donnez jamais de réponses à vos élèves, mais essayez toujours de poser les bonnes questions pour les aider à apprendre à penser de manière indépendante."
L'idée est que les messages système agissent comme des garde-fous pour empêcher GPT-4 de dérailler. "Vraiment comprendre le ton, le style et la substance du GPT-4 a été l'une de nos principales priorités", a déclaré Brockman. "Je pense que nous commençons à mieux comprendre comment faire de l'ingénierie, comment avoir un processus reproductible qui permette. vous d'obtenir des résultats prévisibles qui sont réellement utiles aux gens."
Brockman a également mentionné Evals, le dernier cadre logiciel open source d'OpenAI pour évaluer les performances de ses modèles d'IA, sur lequel OpenAI travaille pour "améliorer" ses modèles. . Evals permet aux utilisateurs de développer et d'exécuter des tests de performance qui évaluent des modèles tels que GPT-4 tout en vérifiant leurs performances, une approche participative des tests de modèles.
Brockman a déclaré : « Avec Evals, nous pouvons mieux voir les cas d'utilisation qui intéressent les utilisateurs et les tester. Une partie de la raison pour laquelle nous open source ce framework est que nous n'ouvrons plus de source tous les trois mois. Publier un nouveau modèle pour continuez à vous améliorer. Vous ne créez pas quelque chose que vous ne pouvez pas mesurer, n'est-ce pas ? Mais à mesure que nous déployons de nouvelles versions du modèle, nous pouvons au moins savoir ce qui a changé. tester ses modèles avec Evals ? Il était réticent à s'engager dans ce sens, mais il a noté que, pour une durée limitée, OpenAI autorise un accès anticipé à l'API GPT-4 aux utilisateurs d'Eevals qui en font la demande.
Brockman a également parlé de la fenêtre contextuelle de GPT-4, qui fait référence au texte que le modèle peut prendre en compte avant de générer du texte supplémentaire. OpenAI teste une version de GPT-4 capable de « mémoriser » environ 50 pages de contenu, soit cinq fois la « mémoire » du GPT-4 classique et huit fois la « mémoire » du GPT-3.
Brockman estime que la fenêtre contextuelle élargie mènera à de nouveaux cas d'utilisation jusqu'alors inexplorés, en particulier dans l'entreprise. Il a imaginé un chatbot IA conçu pour les entreprises, qui pourrait utiliser l'expérience et les connaissances provenant de différentes sources, y compris les employés de tous les départements, pour répondre aux questions de manière très compétente mais conversationnelle.
Ce n'est pas un nouveau concept. Mais Brockman pense que les réponses de GPT-4 seront bien plus utiles que celles actuellement fournies par d’autres chatbots et moteurs de recherche. "Avant, le modèle n'avait aucune idée de qui vous étiez, de ce qui vous intéressait, etc. Et avoir une fenêtre contextuelle plus grande le rend définitivement plus fort, améliorant considérablement le soutien qu'il peut apporter aux gens", a-t-il déclaré Xiaoxiao)
.Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

En 2023, la technologie de l’IA est devenue un sujet brûlant et a un impact énorme sur diverses industries, notamment dans le domaine de la programmation. Les gens sont de plus en plus conscients de l’importance de la technologie de l’IA, et la communauté Spring ne fait pas exception. Avec l’évolution continue de la technologie GenAI (Intelligence Artificielle Générale), il est devenu crucial et urgent de simplifier la création d’applications dotées de fonctions d’IA. Dans ce contexte, « SpringAI » a émergé, visant à simplifier le processus de développement d'applications fonctionnelles d'IA, en le rendant simple et intuitif et en évitant une complexité inutile. Grâce à « SpringAI », les développeurs peuvent plus facilement créer des applications dotées de fonctions d'IA, ce qui les rend plus faciles à utiliser et à exploiter.

OpenAI a récemment annoncé le lancement de son modèle d'intégration de dernière génération, embeddingv3, qui, selon eux, est le modèle d'intégration le plus performant avec des performances multilingues plus élevées. Ce lot de modèles est divisé en deux types : les plus petits text-embeddings-3-small et les plus puissants et plus grands text-embeddings-3-large. Peu d'informations sont divulguées sur la façon dont ces modèles sont conçus et formés, et les modèles ne sont accessibles que via des API payantes. Il existe donc de nombreux modèles d'intégration open source. Mais comment ces modèles open source se comparent-ils au modèle open source open source ? Cet article comparera empiriquement les performances de ces nouveaux modèles avec des modèles open source. Nous prévoyons de créer une donnée

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Auteur丨Compilé par TimAnderson丨Produit par Noah|51CTO Technology Stack (WeChat ID : blog51cto) Le projet d'éditeur Zed est encore en phase de pré-version et a été open source sous licences AGPL, GPL et Apache. L'éditeur offre des performances élevées et plusieurs options assistées par l'IA, mais n'est actuellement disponible que sur la plate-forme Mac. Nathan Sobo a expliqué dans un article que dans la base de code du projet Zed sur GitHub, la partie éditeur est sous licence GPL, les composants côté serveur sont sous licence AGPL et la partie GPUI (GPU Accelerated User) l'interface) adopte la Licence Apache2.0. GPUI est un produit développé par l'équipe Zed

Il n'y a pas si longtemps, OpenAISora est rapidement devenu populaire grâce à ses étonnants effets de génération vidéo. Il s'est démarqué parmi la foule de modèles vidéo littéraires et est devenu le centre d'attention mondiale. Suite au lancement du processus de reproduction d'inférence de formation Sora avec une réduction des coûts de 46 % il y a 2 semaines, l'équipe Colossal-AI a entièrement open source le premier modèle de génération vidéo d'architecture de type Sora au monde "Open-Sora1.0", couvrant l'ensemble processus de formation, y compris le traitement des données, tous les détails de la formation et les poids des modèles, et joignez-vous aux passionnés mondiaux de l'IA pour promouvoir une nouvelle ère de création vidéo. Pour un aperçu, jetons un œil à une vidéo d'une ville animée générée par le modèle « Open-Sora1.0 » publié par l'équipe Colossal-AI. Ouvrir-Sora1.0

Il a été révélé que Microsoft et OpenAI investissaient de grosses sommes d’argent dans une start-up de robots humanoïdes au début de l’année. Parmi eux, Microsoft prévoit d'investir 95 millions de dollars et OpenAI investira 5 millions de dollars. Selon Bloomberg, la société devrait lever un total de 500 millions de dollars au cours de ce cycle, et sa valorisation pré-monétaire pourrait atteindre 1,9 milliard de dollars. Qu'est-ce qui les attire ? Jetons d’abord un coup d’œil aux réalisations de cette entreprise en matière de robotique. Ce robot est tout argenté et noir, et son apparence ressemble à l'image d'un robot dans un blockbuster de science-fiction hollywoodien : maintenant, il met une capsule de café dans la machine à café : si elle n'est pas placée correctement, elle s'ajustera sans aucun problème. télécommande humaine : Cependant, après un certain temps, une tasse de café peut être emportée et dégustée : Avez-vous des membres de votre famille qui l'ont reconnu ? Oui, ce robot a été créé il y a quelque temps.

Ollama est un outil super pratique qui vous permet d'exécuter facilement des modèles open source tels que Llama2, Mistral et Gemma localement. Dans cet article, je vais vous présenter comment utiliser Ollama pour vectoriser du texte. Si vous n'avez pas installé Ollama localement, vous pouvez lire cet article. Dans cet article, nous utiliserons le modèle nomic-embed-text[2]. Il s'agit d'un encodeur de texte qui surpasse OpenAI text-embedding-ada-002 et text-embedding-3-small sur les tâches à contexte court et à contexte long. Démarrez le service nomic-embed-text lorsque vous avez installé avec succès o

Soudain! OpenAI a licencié des gens, la raison : une fuite d'informations suspectée. L’un d’eux est Léopold Aschenbrenner, un allié du scientifique en chef disparu Ilya et un membre principal de l’équipe Superalignment. L'autre personne n'est pas simple non plus : il s'agit de Pavel Izmailov, chercheur au sein de l'équipe d'inférence du LLM, qui a également travaillé dans l'équipe de super alignement. On ne sait pas exactement quelles informations les deux hommes ont divulguées. Après que la nouvelle ait été révélée, de nombreux internautes se sont dits « assez choqués » : j'ai vu le message d'Aschenbrenner il n'y a pas longtemps et j'ai senti qu'il était en pleine ascension dans sa carrière. Certains internautes sur la photo pensent : OpenAI a perdu Aschenbrenner, je
