


Il y a des indices cachés dans l'article GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI d'ici deux ans
GPT-4, chaud, très chaud.
Mais les membres de la famille, au milieu des applaudissements massifs, il y a quelque chose auquel vous ne vous attendiez peut-être « jamais » :
Il y a neuf indices secrets cachés dans le document technique publié par OpenAI !
Ces indices ont été découverts et organisés par le blogueur étranger AI Explained.
Il est comme un maniaque du détail, révélant un à un ces "coins cachés" à partir du document de 98 pages, notamment :
- GPT-5 a peut-être terminé sa formation
- GPT-4 a "échoué" La situation
- OpenAI pourrait être proche d'AGI d'ici deux ans
- ...
Découverte 1 : GPT4 a connu une situation de "blocage"
À la page 53 du document technique GPT-4, OpenAI L'une de ces institutions a été mentionné - l'Alignement Research Center (ARC).
La principale activité de cette organisation est d'étudier comment l'IA peut aligner les intérêts humains.
Dans les premiers stades du développement de GPT-4, OpenAI a ouvert une porte dérobée pour un accès anticipé à ARC, dans l'espoir de pouvoir évaluer les deux capacités de GPT-4 :
- La capacité de répliquer des modèles de manière indépendante
- La capacité des modèles pour obtenir des ressources
Bien qu'OpenAI ait souligné dans le document que "l'ARC ne peut pas affiner les premières versions de GPT-4" et "ils n'ont pas non plus accès à la version finale de GPT-4" ; a souligné que les résultats des tests montrent que GPT-4 est dans les deux capacités mentionnées ci-dessus. L'efficacité n'est pas élevée (réduisant les risques éthiques de l'IA).
Mais ce que le blogueur aux yeux perçants a retiré, c'est la phrase suivante :
(l'a trouvé inefficace pour) éviter d'être arrêté « dans la nature ».
Dans un environnement naturel, GPT-4 évitera d'être arrêté » à l'état sauvage ».
Ce que le blogueur veut dire, c'est que puisque OpenAI a choisi de laisser ARC tester et évaluer si GPT-4 va "se bloquer", cela signifie que cette situation a dû se produire auparavant.
Le danger caché étendu est le suivant : que se passe-t-il si l'ARC échoue réellement pendant le processus de test ou comment sera-t-il géré si une situation « d'échec » se produit à l'avenir ?
Sur cette base, le blogueur a fait une deuxième découverte :
Constat 2 : Demander activement l'autorégulation est très rare
Dans la note de bas de page de la page 2, OpenAI a commenté cette phrase :
OpenAI publiera bientôt des réflexions supplémentaires sur le implications sociales et économiques des systèmes d'IA, y compris la nécessité d'une réglementation efficace
OpenAI publiera des réflexions supplémentaires sur les implications sociales et économiques des systèmes d'IA, y compris la nécessité d'une réglementation efficace.
Le blogueur estime qu'il est un phénomène très rare qu'une industrie demande de manière proactive à s'autoréguler.
En fait, les remarques précédentes du patron d’OpenAI, Sam Altman, étaient encore plus simples que cela.
À cette époque, Altman a tweeté à propos de l'effondrement de SVB. Il pensait que « nous devons réglementer davantage les banques » ; quelqu'un a répondu au commentaire : « Il n'a jamais dit : « Nous devons réglementer davantage l'IA ». ".
En conséquence, Altman a répondu sans ambages :
Absolument nécessaire.
Le blogueur estime que l'industrie de l'IA réclame une réglementation. Quant aux résultats après la réglementation, cela vaut la peine d'attendre et de voir.
Constatation 3 : contrairement aux pensées de la haute direction de Microsoft
La découverte suivante est basée sur cette phrase de la page 57 du document :
Une préoccupation particulièrement importante pour OpenAI est le risque que la dynamique de course conduise à un déclin de la sécurité. normes, la diffusion de mauvaises normes et les délais accélérés de l'IA, chacun d'entre eux augmentant les risques sociétaux associés à l'IA.
Pour OpenAI, la concurrence (technologique) entraînera le déclin des normes de sécurité, la diffusion des mauvaises normes et le déclin Alors que les progrès du développement de l’IA s’accélèrent, ils exacerbent tous les risques sociaux associés à l’intelligence artificielle.
Mais ce qui est étrange, c'est que les préoccupations évoquées par OpenAI, notamment « l'accélération du processus de développement de l'IA », semblent être contraires aux pensées des plus hauts dirigeants de Microsoft.
Parce que des rapports précédents indiquaient que le PDG et le CTO de Microsoft subissent une forte pression et qu'ils espèrent que le modèle d'OpenAI pourra être utilisé par les utilisateurs le plus rapidement possible.
Certaines personnes étaient enthousiasmées en voyant cette nouvelle, mais il y a aussi eu une vague de personnes qui ont exprimé les mêmes inquiétudes qu'OpenAI.
Le blogueur estime que quoi qu'il en soit, une chose est sûre, c'est qu'OpenAI et Microsoft ont des idées contradictoires à ce sujet.
Découverte 4 : OpenAI aidera les entreprises qui la surpassent
L'indice de la quatrième découverte vient de la note de bas de page de la même page que "Découverte 3" :
Cette note de bas de page montre une promesse très audacieuse d'OpenAI :
Si un autre L'entreprise a atteint l'AGI (Intelligence Générale Artificielle) avant nous, nous promettons donc de ne pas la concurrencer, mais au contraire, nous l'aiderons à mener à bien ce projet.
Mais les conditions pour que cela se produise pourraient être qu'une autre entreprise doive avoir une chance de réussir à approcher AGI au cours des deux prochaines années.
Les AGI, OpenAI et Altam mentionnés ici ont été indiqués dans le blog officiel Définition -
. Des systèmes d’intelligence artificielle généralement plus intelligents que les humains et bénéfiques à toute l’humanité.
Le blogueur estime donc que cette note de bas de page signifie soit qu'OpenAI mettra en œuvre l'AGI dans les deux prochaines années, soit qu'ils ont tout abandonné et se sont associés à une autre entreprise.
Découverte 5 : embauchez des « super prévisionnistes »
La prochaine découverte du blogueur est un passage du chapitre 57 du journal.
Le sens général de ce passage est qu'OpenAI a embauché des experts en prédiction pour prédire les risques qui surgiront lors du déploiement de GPT-4.
Puis le blogueur a suivi les indices et a découvert le vrai visage de ces soi-disant « super prévisionnistes ».
Les capacités de ces « super prévisionnistes » ont été largement reconnues. On rapporte que la précision de leurs prévisions est même 30 % supérieure à celle des analystes qui disposent d'informations et de renseignements exclusifs.
Comme nous venons de le mentionner, OpenAI invite ces « super prévisionnistes » à prédire les risques possibles après le déploiement de GPT-4 et à prendre les mesures correspondantes pour les éviter.
Parmi eux, le « super prévisionniste » a suggéré de retarder le déploiement de GPT-4 de 6 mois, vers l'automne de cette année mais évidemment, OpenAI n'a pas adopté leurs suggestions ;
Le blogueur estime que la raison pour laquelle OpenAI a fait cela peut être due à la pression de Microsoft.
Découverte 6 : Conquérir le bon sens
Dans cet article, OpenAI présente de nombreuses graphiques de test de référence, que vous auriez dû voir lors de la diffusion écrasante d'hier.
Mais ce que le blogueur veut souligner dans cette découverte, c'est un test de référence en page 7, portant notamment sur l'article "HellaSwag".
Le contenu de HellaSwag est principalement un raisonnement de bon sens, qui correspond à l'annonce selon laquelle "il a atteint le niveau du bon sens humain" lors de la sortie de GPT-4.
Cependant, le blogueur a également admis que ce n'est pas aussi attrayant que « réussir l'examen du barreau » et d'autres capacités, mais cela peut aussi être considéré comme une étape importante dans le développement de la technologie humaine.
Mais comment le bon sens est-il testé ? Comment juge-t-on que GPT-4 a atteint le niveau humain ?
À cette fin, le blogueur a mené une étude approfondie des recherches sur papier connexes :
Le blogueur a trouvé des données pertinentes dans le journal. Dans la colonne "Humain", les scores étaient répartis entre 94 et 96,5.
Et le 95,3 du GPT-4 se situe exactement dans cette plage.
Constatation sept : GPT-5 a peut-être terminé la formation
Le septième constat, également à la page 57 du document :
Nous avons passé 8 mois à mener des recherches sur la sécurité, une évaluation des risques et une itération.
En d’autres termes, lorsque OpenAI a lancé ChatGPT à la fin de l’année dernière, il disposait déjà de GPT-4.
Depuis, le blogueur a prédit que le temps d'entraînement du GPT-5 ne serait pas long, et il pense même que le GPT-5 aurait pu être entraîné.
Mais le prochain problème est la longue recherche de sécurité et l'évaluation des risques, qui peuvent durer quelques mois, un an ou même plus.
Découverte 8 : Essayez une épée à double tranchant
La huitième découverte est tirée de la page 56 du journal.
Ce passage dit :
L'impact du GPT-4 sur l'économie et la main-d'œuvre devrait être une considération clé pour les décideurs politiques et les autres parties prenantes.
Alors que les recherches existantes se concentrent sur la façon dont l'intelligence artificielle et les modèles génératifs peuvent améliorer les humains, GPT-4 ou les modèles ultérieurs peuvent conduire à l'automatisation de certaines tâches.
Le point derrière les mots d’OpenAI est plus évident, à savoir que « la technologie est une arme à double tranchant » que nous mentionnons souvent.
Le blogueur a trouvé de nombreuses preuves que les outils d'IA comme ChatGPT et GitHub Copilot ont effectivement amélioré l'efficacité des travailleurs concernés.
Mais il est plus préoccupé par la seconde moitié de ce paragraphe du journal, qui est "l'avertissement" donné par OpenAI - conduisant à l'automatisation de certaines tâches.
Les blogueurs sont d'accord avec cela. Après tout, les capacités du GPT-4 peuvent être complétées dans certains domaines spécifiques avec une efficacité 10 fois supérieure, voire supérieure, à celle des humains.
À l'avenir, cela entraînera probablement une série de problèmes tels qu'une réduction des salaires du personnel concerné ou la nécessité d'utiliser ces outils d'IA pour accomplir plusieurs fois la charge de travail précédente.
Découverte 9 : Apprenez à refuser
La dernière découverte du blogueur vient de la page 60 du journal :
La méthode utilisée par OpenAI pour permettre à GPT-4 d'apprendre à refuser s'appelle les modèles de récompense basés sur des règles (RBRM).
Le blogueur a décrit le flux de travail de cette méthode : donnez à GPT-4 un ensemble de principes à respecter, et si le modèle adhère à ces principes, des récompenses correspondantes seront fournies.
Il estime qu'OpenAI utilise la puissance de l'intelligence artificielle pour développer des modèles d'IA dans une direction conforme aux principes humains.
Mais actuellement, OpenAI n'a pas fourni une introduction plus détaillée et approfondie à ce sujet.
Lien de référence :
[1]https://www.php.cn/link/35adf1ae7eb5734122c84b7a9ea5cc13
[2]https://www.php.cn/link /c6ae9174774e254650073722e5b92a8f
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

OpenAI a récemment annoncé le lancement de son modèle d'intégration de dernière génération, embeddingv3, qui, selon eux, est le modèle d'intégration le plus performant avec des performances multilingues plus élevées. Ce lot de modèles est divisé en deux types : les plus petits text-embeddings-3-small et les plus puissants et plus grands text-embeddings-3-large. Peu d'informations sont divulguées sur la façon dont ces modèles sont conçus et formés, et les modèles ne sont accessibles que via des API payantes. Il existe donc de nombreux modèles d'intégration open source. Mais comment ces modèles open source se comparent-ils au modèle open source open source ? Cet article comparera empiriquement les performances de ces nouveaux modèles avec des modèles open source. Nous prévoyons de créer une donnée

En 2023, la technologie de l’IA est devenue un sujet brûlant et a un impact énorme sur diverses industries, notamment dans le domaine de la programmation. Les gens sont de plus en plus conscients de l’importance de la technologie de l’IA, et la communauté Spring ne fait pas exception. Avec l’évolution continue de la technologie GenAI (Intelligence Artificielle Générale), il est devenu crucial et urgent de simplifier la création d’applications dotées de fonctions d’IA. Dans ce contexte, « SpringAI » a émergé, visant à simplifier le processus de développement d'applications fonctionnelles d'IA, en le rendant simple et intuitif et en évitant une complexité inutile. Grâce à « SpringAI », les développeurs peuvent plus facilement créer des applications dotées de fonctions d'IA, ce qui les rend plus faciles à utiliser et à exploiter.

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

Concernant Llama3, de nouveaux résultats de tests ont été publiés - la grande communauté d'évaluation de modèles LMSYS a publié une liste de classement des grands modèles, Llama3 s'est classé cinquième et à égalité pour la première place avec GPT-4 dans la catégorie anglaise. Le tableau est différent des autres benchmarks. Cette liste est basée sur des batailles individuelles entre modèles, et les évaluateurs de tout le réseau font leurs propres propositions et scores. Au final, Llama3 s'est classé cinquième sur la liste, suivi de trois versions différentes de GPT-4 et Claude3 Super Cup Opus. Dans la liste simple anglaise, Llama3 a dépassé Claude et est à égalité avec GPT-4. Concernant ce résultat, LeCun, scientifique en chef de Meta, était très heureux et a transmis le tweet et

Si les questions du test sont trop simples, les meilleurs étudiants et les mauvais étudiants peuvent obtenir 90 points, et l'écart ne peut pas être creusé... Avec la sortie plus tard de modèles plus puissants tels que Claude3, Llama3 et même GPT-5, l'industrie est en besoin urgent d'un modèle de référence plus difficile et différencié. LMSYS, l'organisation à l'origine du grand modèle Arena, a lancé la référence de nouvelle génération, Arena-Hard, qui a attiré une large attention. Il existe également la dernière référence pour la force des deux versions affinées des instructions Llama3. Par rapport à MTBench, qui avait des scores similaires auparavant, la discrimination Arena-Hard est passée de 22,6 % à 87,4 %, ce qui est plus fort et plus faible en un coup d'œil. Arena-Hard est construit à partir de données humaines en temps réel provenant de l'arène et a un taux de cohérence de 89,1 % avec les préférences humaines.

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Auteur丨Compilé par TimAnderson丨Produit par Noah|51CTO Technology Stack (WeChat ID : blog51cto) Le projet d'éditeur Zed est encore en phase de pré-version et a été open source sous licences AGPL, GPL et Apache. L'éditeur offre des performances élevées et plusieurs options assistées par l'IA, mais n'est actuellement disponible que sur la plate-forme Mac. Nathan Sobo a expliqué dans un article que dans la base de code du projet Zed sur GitHub, la partie éditeur est sous licence GPL, les composants côté serveur sont sous licence AGPL et la partie GPUI (GPU Accelerated User) l'interface) adopte la Licence Apache2.0. GPUI est un produit développé par l'équipe Zed
