


Le PDG d'OpenAI déclare : L'expansion à grande échelle n'est pas le seul moyen de progresser, et l'ère des modèles géants d'IA touche peut-être à sa fin.
News du 18 avril, le chatbot ChatGPT d'OpenAI est si puissant qu'il a suscité un grand intérêt et des investissements dans l'intelligence artificielle. Cependant, le PDG de l’entreprise, Sam Altman, estime que les stratégies de recherche existantes ont échoué et que les futurs progrès de l’IA nécessitent de nouvelles idées.
Ces dernières années, OpenAI a réalisé une série impressionnante de progrès dans le domaine du langage de traitement en adaptant les algorithmes d'apprentissage automatique existants à des échelles auparavant inimaginables. Son projet le plus récemment développé est GPT-4, qui, selon lui, a été formé à l'aide de milliards de mots de texte et de milliers de puces informatiques puissantes pour un coût de plus de 100 millions de dollars.
Cependant, Altman a déclaré que les progrès futurs de l'IA ne dépendront plus de la création de modèles plus grands. "Je pense que nous sommes à la fin d'une époque", a-t-il déclaré lors d'un événement au MIT. "Dans cette époque [sortante], les modèles sont devenus de plus en plus grands. Maintenant, nous allons les créer d'une autre manière." mieux. »
Les commentaires d'Altman représentent un tournant inattendu dans la course au développement et au déploiement de nouveaux algorithmes d'IA. Depuis le lancement de ChatGPT en novembre, Microsoft a exploité la technologie sous-jacente pour ajouter des chatbots à son moteur de recherche Bing, et Google a lancé un concurrent appelé Bard. De nombreuses personnes sont impatientes d’essayer ce nouveau chatbot pour les aider dans leurs tâches professionnelles ou personnelles.
Dans le même temps, de nombreuses startups bien financées, notamment Anthropic, AI21, Cohere et Character.AI, investissent des ressources importantes dans la création d'algorithmes plus vastes dans le but de rattraper OpenAI. La version initiale de ChatGPT est basée sur GPT-3, mais les utilisateurs ont désormais également accès à une version plus puissante prise en charge par GPT-4.
La déclaration d'Altman implique également qu'après avoir adopté la stratégie d'expansion du modèle et de fourniture de plus de données pour la formation, GPT-4 pourrait être la dernière réalisation majeure d'OpenAI. Cependant, il n’a révélé aucune stratégie ou technique de recherche susceptible de remplacer les méthodes actuelles. Dans un article décrivant GPT-4, OpenAI a déclaré que ses estimations montraient des rendements décroissants liés à la mise à l’échelle des modèles. Il existe également des limites physiques au nombre de centres de données que l'entreprise peut construire et à la rapidité avec laquelle elle peut les construire, a déclaré Altman.
Le co-fondateur de Cohere, Nick Frosst, qui a travaillé sur l'intelligence artificielle chez Google, a déclaré qu'Altman avait raison lorsqu'il disait que "l'augmentation continue de la taille du modèle n'est pas une solution illimitée". Il pense que les modèles d'apprentissage automatique pour GPT-4 et d'autres types de transformateurs (groupe d'édition : les transformateurs sont littéralement traduits par convertisseurs, et GPT est l'abréviation de Transformateurs pré-entraînés génératifs, signifiant des modèles de pré-entraînement génératifs basés sur des transformateurs), progressent. il ne s'agit plus seulement de mise à l'échelle.
Frost a ajouté : « Il existe de nombreuses façons de rendre les transformateurs meilleurs et plus utiles, et beaucoup d'entre elles n'impliquent pas l'ajout de paramètres au modèle. Les nouvelles conceptions ou architectures de modèles d'IA, ainsi que d'autres ajustements basés sur les commentaires humains, sont toutes des directions. que de nombreux chercheurs explorent déjà. doit suivre une chaîne de texte donnée.
En 2019, OpenAI a publié son premier modèle de langage GPT-2. Il implique jusqu'à 1,5 milliard de paramètres et constitue une mesure du nombre réglable de connexions entre les neurones. C'est un nombre très important, en partie grâce à une découverte des chercheurs d'OpenAI selon laquelle la mise à l'échelle rend le modèle plus cohérent.
En 2020, OpenAI a lancé GPT-3, le successeur de GPT-2, qui est un modèle plus grand avec jusqu'à 175 milliards de paramètres. La grande capacité de GPT-3 à générer de la poésie, des e-mails et d’autres textes a conduit d’autres entreprises et instituts de recherche à croire qu’ils pouvaient faire évoluer leurs propres modèles d’IA à des échelles similaires, voire plus grandes, que GPT-3.
Après le lancement de ChatGPT en novembre de l'année dernière, les créateurs de mèmes et les experts en technologie ont émis l'hypothèse que lorsque GPT-4 sortirait, il s'agirait d'un modèle plus complexe avec plus de paramètres. Cependant, lorsque OpenAI a finalement annoncé son nouveau modèle d'IA, la société n'a pas révélé quelle serait sa taille, peut-être parce que la taille n'était plus le seul facteur important. Lors de l'événement du MIT, on a demandé à Altman si le coût de la formation GPT-4 était de 100 millions de dollars, et il a répondu : "C'est plus que ça
".Bien qu'OpenAI garde secrets l'échelle et le fonctionnement interne de GPT-4, il est probable qu'il ne repose plus uniquement sur la mise à l'échelle pour améliorer les performances. Une possibilité est que l'entreprise ait utilisé une méthode appelée « apprentissage par renforcement avec feedback humain » pour améliorer les capacités de ChatGPT, notamment en demandant aux humains de juger de la qualité des réponses du modèle pour le guider dans la fourniture de services plus susceptibles d'être jugés comme des réponses de haute qualité. .
Les capacités extraordinaires du GPT-4 ont alarmé de nombreux experts et suscité un débat sur le potentiel de l’IA à transformer l’économie, ainsi que des inquiétudes quant au risque de propagation de la désinformation et de création de chômage. Un certain nombre d'entrepreneurs et d'experts en IA ont récemment signé une lettre ouverte appelant à un moratoire de six mois sur le développement de modèles plus puissants que le GPT-4, notamment le PDG de Tesla, Elon Musk.
Lors de l'événement du MIT, Altman a confirmé que son entreprise ne développe pas actuellement GPT-5. Il a ajouté : « Une version antérieure de cette lettre ouverte affirmait qu'OpenAI entraînait GPT-5. En fait, nous ne le faisons pas et ne le ferons pas à court terme. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

En 2023, la technologie de l’IA est devenue un sujet brûlant et a un impact énorme sur diverses industries, notamment dans le domaine de la programmation. Les gens sont de plus en plus conscients de l’importance de la technologie de l’IA, et la communauté Spring ne fait pas exception. Avec l’évolution continue de la technologie GenAI (Intelligence Artificielle Générale), il est devenu crucial et urgent de simplifier la création d’applications dotées de fonctions d’IA. Dans ce contexte, « SpringAI » a émergé, visant à simplifier le processus de développement d'applications fonctionnelles d'IA, en le rendant simple et intuitif et en évitant une complexité inutile. Grâce à « SpringAI », les développeurs peuvent plus facilement créer des applications dotées de fonctions d'IA, ce qui les rend plus faciles à utiliser et à exploiter.

OpenAI a récemment annoncé le lancement de son modèle d'intégration de dernière génération, embeddingv3, qui, selon eux, est le modèle d'intégration le plus performant avec des performances multilingues plus élevées. Ce lot de modèles est divisé en deux types : les plus petits text-embeddings-3-small et les plus puissants et plus grands text-embeddings-3-large. Peu d'informations sont divulguées sur la façon dont ces modèles sont conçus et formés, et les modèles ne sont accessibles que via des API payantes. Il existe donc de nombreux modèles d'intégration open source. Mais comment ces modèles open source se comparent-ils au modèle open source open source ? Cet article comparera empiriquement les performances de ces nouveaux modèles avec des modèles open source. Nous prévoyons de créer une donnée

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

Concernant Llama3, de nouveaux résultats de tests ont été publiés - la grande communauté d'évaluation de modèles LMSYS a publié une liste de classement des grands modèles, Llama3 s'est classé cinquième et à égalité pour la première place avec GPT-4 dans la catégorie anglaise. Le tableau est différent des autres benchmarks. Cette liste est basée sur des batailles individuelles entre modèles, et les évaluateurs de tout le réseau font leurs propres propositions et scores. Au final, Llama3 s'est classé cinquième sur la liste, suivi de trois versions différentes de GPT-4 et Claude3 Super Cup Opus. Dans la liste simple anglaise, Llama3 a dépassé Claude et est à égalité avec GPT-4. Concernant ce résultat, LeCun, scientifique en chef de Meta, était très heureux et a transmis le tweet et

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Auteur丨Compilé par TimAnderson丨Produit par Noah|51CTO Technology Stack (WeChat ID : blog51cto) Le projet d'éditeur Zed est encore en phase de pré-version et a été open source sous licences AGPL, GPL et Apache. L'éditeur offre des performances élevées et plusieurs options assistées par l'IA, mais n'est actuellement disponible que sur la plate-forme Mac. Nathan Sobo a expliqué dans un article que dans la base de code du projet Zed sur GitHub, la partie éditeur est sous licence GPL, les composants côté serveur sont sous licence AGPL et la partie GPUI (GPU Accelerated User) l'interface) adopte la Licence Apache2.0. GPUI est un produit développé par l'équipe Zed

Le volume est fou, le volume est fou, et le grand modèle a encore changé. Tout à l'heure, le modèle d'IA le plus puissant au monde a changé de mains du jour au lendemain et GPT-4 a été retiré de l'autel. Anthropic a publié la dernière série de modèles Claude3. Évaluation en une phrase : elle écrase vraiment GPT-4 ! En termes d'indicateurs multimodaux et de compétences linguistiques, Claude3 l'emporte. Selon les mots d'Anthropic, les modèles de la série Claude3 ont établi de nouvelles références dans l'industrie en matière de raisonnement, de mathématiques, de codage, de compréhension multilingue et de vision ! Anthropic est une startup créée par des employés qui ont « quitté » OpenAI en raison de différents concepts de sécurité. Leurs produits ont frappé durement OpenAI à plusieurs reprises. Cette fois, Claude3 a même subi une grosse opération.
