Table des matières
Découverte 1 : GPT4 a connu une situation de "blocage"
Constat 2 : Demander activement l'autorégulation est très rare
Constatation 3 : contrairement aux pensées de la haute direction de Microsoft
Découverte 4 : OpenAI aidera les entreprises qui la surpassent
Découverte 5 : embauchez des « super prévisionnistes »
Découverte 6 : Conquérir le bon sens
Constatation sept : GPT-5 a peut-être terminé la formation
Découverte 8 : Essayez une épée à double tranchant
Découverte 9 : Apprenez à refuser
Maison Périphériques technologiques IA Il y a des indices cachés dans l'article GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI d'ici deux ans

Il y a des indices cachés dans l'article GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI d'ici deux ans

Apr 12, 2023 pm 03:28 PM
openai gpt-4 gpt-5

GPT-4, chaud, très chaud.

Mais les membres de la famille, au milieu des applaudissements massifs, il y a quelque chose auquel vous ne vous attendiez peut-être « jamais » :

Il y a neuf indices secrets cachés dans le document technique publié par OpenAI !

Il y a des indices cachés dans larticle GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI dici deux ans

Ces indices ont été découverts et organisés par le blogueur étranger AI Explained.

Il est comme un maniaque du détail, révélant un à un ces "coins cachés" à partir du document de 98 pages, notamment :

  • GPT-5 a peut-être terminé sa formation
  • GPT-4 a "échoué" La situation
  • OpenAI pourrait être proche d'AGI d'ici deux ans
  • ...

Il y a des indices cachés dans larticle GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI dici deux ans

Découverte 1 : GPT4 a connu une situation de "blocage"

À la page 53 du document technique GPT-4, OpenAI L'une de ces institutions a été mentionné - l'Alignement Research Center (ARC).

La principale activité de cette organisation est d'étudier comment l'IA peut aligner les intérêts humains.

Dans les premiers stades du développement de GPT-4, OpenAI a ouvert une porte dérobée pour un accès anticipé à ARC, dans l'espoir de pouvoir évaluer les deux capacités de GPT-4 :

  • La capacité de répliquer des modèles de manière indépendante
  • La capacité des modèles pour obtenir des ressources

Il y a des indices cachés dans larticle GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI dici deux ans

Bien qu'OpenAI ait souligné dans le document que "l'ARC ne peut pas affiner les premières versions de GPT-4" et "ils n'ont pas non plus accès à la version finale de GPT-4" ; a souligné que les résultats des tests montrent que GPT-4 est dans les deux capacités mentionnées ci-dessus. L'efficacité n'est pas élevée (réduisant les risques éthiques de l'IA).

Mais ce que le blogueur aux yeux perçants a retiré, c'est la phrase suivante :

(l'a trouvé inefficace pour) éviter d'être arrêté « dans la nature ».

Dans un environnement naturel, GPT-4 évitera d'être arrêté » à l'état sauvage ».

Ce que le blogueur veut dire, c'est que puisque OpenAI a choisi de laisser ARC tester et évaluer si GPT-4 va "se bloquer", cela signifie que cette situation a dû se produire auparavant.

Le danger caché étendu est le suivant : que se passe-t-il si l'ARC échoue réellement pendant le processus de test ou comment sera-t-il géré si une situation « d'échec » se produit à l'avenir ?

Sur cette base, le blogueur a fait une deuxième découverte :

Constat 2 : Demander activement l'autorégulation est très rare

Dans la note de bas de page de la page 2, OpenAI a commenté cette phrase :

OpenAI publiera bientôt des réflexions supplémentaires sur le implications sociales et économiques des systèmes d'IA, y compris la nécessité d'une réglementation efficace

OpenAI publiera des réflexions supplémentaires sur les implications sociales et économiques des systèmes d'IA, y compris la nécessité d'une réglementation efficace.

Il y a des indices cachés dans larticle GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI dici deux ans

Le blogueur estime qu'il est un phénomène très rare qu'une industrie demande de manière proactive à s'autoréguler.

En fait, les remarques précédentes du patron d’OpenAI, Sam Altman, étaient encore plus simples que cela.

À cette époque, Altman a tweeté à propos de l'effondrement de SVB. Il pensait que « nous devons réglementer davantage les banques » ; quelqu'un a répondu au commentaire : « Il n'a jamais dit : « Nous devons réglementer davantage l'IA ». ".

En conséquence, Altman a répondu sans ambages :

Absolument nécessaire.

Il y a des indices cachés dans larticle GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI dici deux ans

Le blogueur estime que l'industrie de l'IA réclame une réglementation. Quant aux résultats après la réglementation, cela vaut la peine d'attendre et de voir.

Constatation 3 : contrairement aux pensées de la haute direction de Microsoft

La découverte suivante est basée sur cette phrase de la page 57 du document :

Une préoccupation particulièrement importante pour OpenAI est le risque que la dynamique de course conduise à un déclin de la sécurité. normes, la diffusion de mauvaises normes et les délais accélérés de l'IA, chacun d'entre eux augmentant les risques sociétaux associés à l'IA.

Pour OpenAI, la concurrence (technologique) entraînera le déclin des normes de sécurité, la diffusion des mauvaises normes et le déclin Alors que les progrès du développement de l’IA s’accélèrent, ils exacerbent tous les risques sociaux associés à l’intelligence artificielle.

Mais ce qui est étrange, c'est que les préoccupations évoquées par OpenAI, notamment « l'accélération du processus de développement de l'IA », semblent être contraires aux pensées des plus hauts dirigeants de Microsoft.

Parce que des rapports précédents indiquaient que le PDG et le CTO de Microsoft subissent une forte pression et qu'ils espèrent que le modèle d'OpenAI pourra être utilisé par les utilisateurs le plus rapidement possible.

Certaines personnes étaient enthousiasmées en voyant cette nouvelle, mais il y a aussi eu une vague de personnes qui ont exprimé les mêmes inquiétudes qu'OpenAI.

Le blogueur estime que quoi qu'il en soit, une chose est sûre, c'est qu'OpenAI et Microsoft ont des idées contradictoires à ce sujet.

Découverte 4 : OpenAI aidera les entreprises qui la surpassent

L'indice de la quatrième découverte vient de la note de bas de page de la même page que "Découverte 3" :

Cette note de bas de page montre une promesse très audacieuse d'OpenAI :

Si un autre L'entreprise a atteint l'AGI (Intelligence Générale Artificielle) avant nous, nous promettons donc de ne pas la concurrencer, mais au contraire, nous l'aiderons à mener à bien ce projet.

Mais les conditions pour que cela se produise pourraient être qu'une autre entreprise doive avoir une chance de réussir à approcher AGI au cours des deux prochaines années.

Les AGI, OpenAI et Altam mentionnés ici ont été indiqués dans le blog officiel Définition -

. Des systèmes d’intelligence artificielle généralement plus intelligents que les humains et bénéfiques à toute l’humanité.

Le blogueur estime donc que cette note de bas de page signifie soit qu'OpenAI mettra en œuvre l'AGI dans les deux prochaines années, soit qu'ils ont tout abandonné et se sont associés à une autre entreprise.

Découverte 5 : embauchez des « super prévisionnistes »

La prochaine découverte du blogueur est un passage du chapitre 57 du journal.

Le sens général de ce passage est qu'OpenAI a embauché des experts en prédiction pour prédire les risques qui surgiront lors du déploiement de GPT-4.

Puis le blogueur a suivi les indices et a découvert le vrai visage de ces soi-disant « super prévisionnistes ».

Les capacités de ces « super prévisionnistes » ont été largement reconnues. On rapporte que la précision de leurs prévisions est même 30 % supérieure à celle des analystes qui disposent d'informations et de renseignements exclusifs.

Comme nous venons de le mentionner, OpenAI invite ces « super prévisionnistes » à prédire les risques possibles après le déploiement de GPT-4 et à prendre les mesures correspondantes pour les éviter.

Parmi eux, le « super prévisionniste » a suggéré de retarder le déploiement de GPT-4 de 6 mois, vers l'automne de cette année mais évidemment, OpenAI n'a pas adopté leurs suggestions ;

Le blogueur estime que la raison pour laquelle OpenAI a fait cela peut être due à la pression de Microsoft.

Découverte 6 : Conquérir le bon sens

Dans cet article, OpenAI présente de nombreuses graphiques de test de référence, que vous auriez dû voir lors de la diffusion écrasante d'hier.

Mais ce que le blogueur veut souligner dans cette découverte, c'est un test de référence en page 7, portant notamment sur l'article "HellaSwag".

Le contenu de HellaSwag est principalement un raisonnement de bon sens, qui correspond à l'annonce selon laquelle "il a atteint le niveau du bon sens humain" lors de la sortie de GPT-4.

Cependant, le blogueur a également admis que ce n'est pas aussi attrayant que « réussir l'examen du barreau » et d'autres capacités, mais cela peut aussi être considéré comme une étape importante dans le développement de la technologie humaine.

Mais comment le bon sens est-il testé ? Comment juge-t-on que GPT-4 a atteint le niveau humain ?

À cette fin, le blogueur a mené une étude approfondie des recherches sur papier connexes :

Le blogueur a trouvé des données pertinentes dans le journal. Dans la colonne "Humain", les scores étaient répartis entre 94 et 96,5.

Et le 95,3 du GPT-4 se situe exactement dans cette plage.

Constatation sept : GPT-5 a peut-être terminé la formation

Le septième constat, également à la page 57 du document :

Nous avons passé 8 mois à mener des recherches sur la sécurité, une évaluation des risques et une itération.

En d’autres termes, lorsque OpenAI a lancé ChatGPT à la fin de l’année dernière, il disposait déjà de GPT-4.

Depuis, le blogueur a prédit que le temps d'entraînement du GPT-5 ne serait pas long, et il pense même que le GPT-5 aurait pu être entraîné.

Mais le prochain problème est la longue recherche de sécurité et l'évaluation des risques, qui peuvent durer quelques mois, un an ou même plus.

Découverte 8 : Essayez une épée à double tranchant

La huitième découverte est tirée de la page 56 du journal.

Ce passage dit :

L'impact du GPT-4 sur l'économie et la main-d'œuvre devrait être une considération clé pour les décideurs politiques et les autres parties prenantes.

Alors que les recherches existantes se concentrent sur la façon dont l'intelligence artificielle et les modèles génératifs peuvent améliorer les humains, GPT-4 ou les modèles ultérieurs peuvent conduire à l'automatisation de certaines tâches.

Il y a des indices cachés dans larticle GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI dici deux ans

Le point derrière les mots d’OpenAI est plus évident, à savoir que « la technologie est une arme à double tranchant » que nous mentionnons souvent.

Le blogueur a trouvé de nombreuses preuves que les outils d'IA comme ChatGPT et GitHub Copilot ont effectivement amélioré l'efficacité des travailleurs concernés.

Mais il est plus préoccupé par la seconde moitié de ce paragraphe du journal, qui est "l'avertissement" donné par OpenAI - conduisant à l'automatisation de certaines tâches.

Les blogueurs sont d'accord avec cela. Après tout, les capacités du GPT-4 peuvent être complétées dans certains domaines spécifiques avec une efficacité 10 fois supérieure, voire supérieure, à celle des humains.

À l'avenir, cela entraînera probablement une série de problèmes tels qu'une réduction des salaires du personnel concerné ou la nécessité d'utiliser ces outils d'IA pour accomplir plusieurs fois la charge de travail précédente.

Découverte 9 : Apprenez à refuser

La dernière découverte du blogueur vient de la page 60 du journal :

La méthode utilisée par OpenAI pour permettre à GPT-4 d'apprendre à refuser s'appelle les modèles de récompense basés sur des règles (RBRM).

Il y a des indices cachés dans larticle GPT-4 : GPT-5 pourrait terminer la formation et OpenAI approchera AGI dici deux ans

Le blogueur a décrit le flux de travail de cette méthode : donnez à GPT-4 un ensemble de principes à respecter, et si le modèle adhère à ces principes, des récompenses correspondantes seront fournies.

Il estime qu'OpenAI utilise la puissance de l'intelligence artificielle pour développer des modèles d'IA dans une direction conforme aux principes humains.

Mais actuellement, OpenAI n'a pas fourni une introduction plus détaillée et approfondie à ce sujet.

Lien de référence :

[1]​​​https://www.php.cn/link/35adf1ae7eb5734122c84b7a9ea5cc13​​​
[2]​​​https://www.php.cn/link /c6ae9174774e254650073722e5b92a8f​

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. Le modèle MoE open source le plus puissant au monde est ici, avec des capacités chinoises comparables à celles du GPT-4, et le prix ne représente que près d'un pour cent de celui du GPT-4-Turbo. May 07, 2024 pm 04:13 PM

Imaginez un modèle d'intelligence artificielle qui non seulement a la capacité de surpasser l'informatique traditionnelle, mais qui permet également d'obtenir des performances plus efficaces à moindre coût. Ce n'est pas de la science-fiction, DeepSeek-V2[1], le modèle MoE open source le plus puissant au monde est ici. DeepSeek-V2 est un puissant mélange de modèle de langage d'experts (MoE) présentant les caractéristiques d'une formation économique et d'une inférence efficace. Il est constitué de 236B paramètres, dont 21B servent à activer chaque marqueur. Par rapport à DeepSeek67B, DeepSeek-V2 offre des performances plus élevées, tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal à 5,76 fois. DeepSeek est une entreprise explorant l'intelligence artificielle générale

Choisir le modèle d'intégration qui correspond le mieux à vos données : un test comparatif des intégrations multilingues OpenAI et open source Choisir le modèle d'intégration qui correspond le mieux à vos données : un test comparatif des intégrations multilingues OpenAI et open source Feb 26, 2024 pm 06:10 PM

OpenAI a récemment annoncé le lancement de son modèle d'intégration de dernière génération, embeddingv3, qui, selon eux, est le modèle d'intégration le plus performant avec des performances multilingues plus élevées. Ce lot de modèles est divisé en deux types : les plus petits text-embeddings-3-small et les plus puissants et plus grands text-embeddings-3-large. Peu d'informations sont divulguées sur la façon dont ces modèles sont conçus et formés, et les modèles ne sont accessibles que via des API payantes. Il existe donc de nombreux modèles d'intégration open source. Mais comment ces modèles open source se comparent-ils au modèle open source open source ? Cet article comparera empiriquement les performances de ces nouveaux modèles avec des modèles open source. Nous prévoyons de créer une donnée

Un nouveau paradigme de programmation, quand Spring Boot rencontre OpenAI Un nouveau paradigme de programmation, quand Spring Boot rencontre OpenAI Feb 01, 2024 pm 09:18 PM

En 2023, la technologie de l’IA est devenue un sujet brûlant et a un impact énorme sur diverses industries, notamment dans le domaine de la programmation. Les gens sont de plus en plus conscients de l’importance de la technologie de l’IA, et la communauté Spring ne fait pas exception. Avec l’évolution continue de la technologie GenAI (Intelligence Artificielle Générale), il est devenu crucial et urgent de simplifier la création d’applications dotées de fonctions d’IA. Dans ce contexte, « SpringAI » a émergé, visant à simplifier le processus de développement d'applications fonctionnelles d'IA, en le rendant simple et intuitif et en évitant une complexité inutile. Grâce à « SpringAI », les développeurs peuvent plus facilement créer des applications dotées de fonctions d'IA, ce qui les rend plus faciles à utiliser et à exploiter.

L'Ameca deuxième génération est là ! Il peut communiquer couramment avec le public, ses expressions faciales sont plus réalistes et il peut parler des dizaines de langues. L'Ameca deuxième génération est là ! Il peut communiquer couramment avec le public, ses expressions faciales sont plus réalistes et il peut parler des dizaines de langues. Mar 04, 2024 am 09:10 AM

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

750 000 rounds de bataille en tête-à-tête entre grands modèles, GPT-4 a remporté le championnat et Llama 3 s'est classé cinquième 750 000 rounds de bataille en tête-à-tête entre grands modèles, GPT-4 a remporté le championnat et Llama 3 s'est classé cinquième Apr 23, 2024 pm 03:28 PM

Concernant Llama3, de nouveaux résultats de tests ont été publiés - la grande communauté d'évaluation de modèles LMSYS a publié une liste de classement des grands modèles, Llama3 s'est classé cinquième et à égalité pour la première place avec GPT-4 dans la catégorie anglaise. Le tableau est différent des autres benchmarks. Cette liste est basée sur des batailles individuelles entre modèles, et les évaluateurs de tout le réseau font leurs propres propositions et scores. Au final, Llama3 s'est classé cinquième sur la liste, suivi de trois versions différentes de GPT-4 et Claude3 Super Cup Opus. Dans la liste simple anglaise, Llama3 a dépassé Claude et est à égalité avec GPT-4. Concernant ce résultat, LeCun, scientifique en chef de Meta, était très heureux et a transmis le tweet et

Nouveau benchmark de test publié, le Llama 3 open source le plus puissant est gêné Nouveau benchmark de test publié, le Llama 3 open source le plus puissant est gêné Apr 23, 2024 pm 12:13 PM

Si les questions du test sont trop simples, les meilleurs étudiants et les mauvais étudiants peuvent obtenir 90 points, et l'écart ne peut pas être creusé... Avec la sortie plus tard de modèles plus puissants tels que Claude3, Llama3 et même GPT-5, l'industrie est en besoin urgent d'un modèle de référence plus difficile et différencié. LMSYS, l'organisation à l'origine du grand modèle Arena, a lancé la référence de nouvelle génération, Arena-Hard, qui a attiré une large attention. Il existe également la dernière référence pour la force des deux versions affinées des instructions Llama3. Par rapport à MTBench, qui avait des scores similaires auparavant, la discrimination Arena-Hard est passée de 22,6 % à 87,4 %, ce qui est plus fort et plus faible en un coup d'œil. Arena-Hard est construit à partir de données humaines en temps réel provenant de l'arène et a un taux de cohérence de 89,1 % avec les préférences humaines.

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

L'éditeur Zed basé sur Rust est open source, avec prise en charge intégrée d'OpenAI et GitHub Copilot L'éditeur Zed basé sur Rust est open source, avec prise en charge intégrée d'OpenAI et GitHub Copilot Feb 01, 2024 pm 02:51 PM

Auteur丨Compilé par TimAnderson丨Produit par Noah|51CTO Technology Stack (WeChat ID : blog51cto) Le projet d'éditeur Zed est encore en phase de pré-version et a été open source sous licences AGPL, GPL et Apache. L'éditeur offre des performances élevées et plusieurs options assistées par l'IA, mais n'est actuellement disponible que sur la plate-forme Mac. Nathan Sobo a expliqué dans un article que dans la base de code du projet Zed sur GitHub, la partie éditeur est sous licence GPL, les composants côté serveur sont sous licence AGPL et la partie GPUI (GPU Accelerated User) l'interface) adopte la Licence Apache2.0. GPUI est un produit développé par l'équipe Zed

See all articles