Table des matières
1. GPT : C'est juste un blockbuster
2. J'ai complètement réussi le test de Turing et abaissé le seuil d'apprentissage et d'utilisation commerciale
3. Différents chemins mènent au même objectif : la simulation du cerveau humain pourrait être plus rapide
Lien de référence :
Maison Périphériques technologiques IA La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de l'industrie ne peuvent pas rester les bras croisés !

La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de l'industrie ne peuvent pas rester les bras croisés !

Apr 14, 2023 pm 06:58 PM
参数 gpt4 人脑

​Auteur | Xu Jiecheng

Critique | Yun Zhao​

​100 000 milliards, quelle est la taille de ce nombre ? Si vous avez le super pouvoir de gagner 5 millions de billets de loterie chaque jour, alors si vous économisez tout l'argent sans manger ni boire, il vous faudra encore vivre environ 5 500 ans pour économiser 100 000 milliards de richesse. Cependant, les 100 000 milliards dont je veux vous parler aujourd’hui ne se trouvent pas derrière les unités convoitées telles que le « RMB » et le « Dollor ». Les 100 000 milliards ici font référence au nombre de paramètres détenus par OpenAI, une société de recherche en intelligence artificielle cofondée par de nombreux magnats de la technologie de la Silicon Valley, qui est sur le point de lancer la quatrième génération de pré-formation générative Transformer-GPT-4.

Afin de permettre à chacun de comprendre ces données de manière plus intuitive, nous pouvons utiliser le cerveau humain pour comparer avec GPT-4. Dans des circonstances normales, un cerveau humain normal possède environ 80 à 100 milliards de neurones et environ 100 000 milliards de synapses. Ces neurones et synapses contrôlent directement presque toutes les pensées, jugements et comportements d’une personne au cours de cent ans de vie, et GPT-4 possède autant de paramètres que de synapses dans le cerveau humain. Alors, quel est le potentiel d’un réseau neuronal dense à si grande échelle ? Quelles surprises l’émergence de GPT-4 nous apportera-t-elle vraiment ?

La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de lindustrie ne peuvent pas rester les bras croisés !

Avant d'explorer ces questions passionnantes, autant comprendre d'abord l'histoire de développement de plusieurs « prédécesseurs » de GPT-4.

1. GPT : C'est juste un blockbuster

Le premier modèle de la série GPT, GPT-1, est né en 2018, qui est la première année de ce que nous appelons souvent le modèle de pré-formation PNL. En tant que premier modèle de pré-formation basé sur Transformer, GPT-1 adopte deux étapes de pré-formation + FineTuning, utilisant le décodeur de Transformer comme extracteur de fonctionnalités. Il empile 12 couches au total et utilise 110 millions de paramètres. "Modèle de langage" unique comme tâche de formation.

En termes de performances, GPT-1 a une certaine capacité de généralisation et peut être utilisé dans des tâches de PNL sans rapport avec les tâches de supervision. Les tâches couramment utilisées incluent :

  • Raisonnement en langage naturel : déterminer la relation entre deux phrases (confinement, contradiction, neutralité)
  • Question et réponse et raisonnement de bon sens : saisir un article et plusieurs réponses, et afficher l'exactitude du réponse
  • Similitude sémantique Reconnaissance : Déterminez si la sémantique de deux phrases est liée
  • Classification : Déterminez à quelle catégorie appartient le texte saisi

Bien que GPT-1 ait certains effets sur les tâches non déboguées, sa capacité de généralisation est bien inférieure qu'après Il s'agit d'une tâche de mise au point supervisée, donc GPT-1 ne peut être considéré que comme un outil de compréhension du langage raisonnablement bon plutôt que comme une IA conversationnelle.

Un an après l'avènement de GPT-1, GPT-2 est également arrivé comme prévu en 2019. Comparé à son grand frère GPT-1, GPT-2 n'a pas apporté trop d'innovations structurelles et de conceptions sur le réseau d'origine. Il a seulement utilisé plus de paramètres de réseau et un ensemble de données plus important : le plus grand modèle a un total de 48 couches, et le plus grand modèle a un total de 48 couches. paramètres Le montant atteint 1,5 milliard et l'objectif d'apprentissage utilise un modèle de pré-formation non supervisé pour effectuer des tâches supervisées.

La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de lindustrie ne peuvent pas rester les bras croisés !

Source : Twitter

En termes de performances, les efforts d'OpenAI semblent vraiment avoir apporté quelques miracles. En plus de sa capacité de compréhension, GPT-2 a pour la première fois montré un fort talent en génération : lire des résumés, discuter, continuer à écrire, inventer des histoires, et même générer de fausses nouvelles, des e-mails de phishing ou se faire passer pour d'autres en ligne sont autant de choses. un jeu d'enfant. Après être « devenu plus grand », GPT-2 a démontré une série de capacités universelles et puissantes et a obtenu les meilleures performances de l'époque sur plusieurs tâches de modélisation de langage spécifiques. Il n’est pas étonnant qu’OpenAI ait déclaré à l’époque que « GPT-2 était trop dangereux pour être publié ».

Depuis le succès de GPT-2, la confiance d'OpenAI dans le « Hercules » est devenue de plus en plus ferme, sorti en 2020, continue de suivre l'idée de développement de la micro-innovation et de l'expansion rapide. Sauf que le Transformer dans GPT-3 applique la structure Sparse, il n'y a presque aucune différence dans la structure de GPT-3 et GPT-2. En termes de « vigueur », le modèle GPT-3 a atteint 96 couches et les paramètres d'entraînement ont atteint 175 milliards (plus de 10 fois ceux du GPT-2).

La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de lindustrie ne peuvent pas rester les bras croisés !

GPT-3 prouve également une fois de plus la vision d'OpenAI. En raison des performances plus élevées de GPT-3 et de beaucoup plus de paramètres, il contient plus de textes de sujet, ce qui est évidemment meilleur que la génération précédente de GPT-2. En tant que plus grand réseau neuronal dense actuellement disponible, GPT-3 peut convertir les descriptions de pages Web en codes correspondants, imiter des récits humains, créer de la poésie personnalisée, générer des scripts de jeu et même imiter des philosophes décédés, prédisant le véritable sens de la vie. Et GPT-3 ne nécessite pas de réglage fin, il ne nécessite que quelques échantillons du type de sortie (une petite quantité d'apprentissage) pour résoudre des problèmes de grammaire difficiles. On peut dire que GPT-3 semble avoir satisfait toutes nos imaginations d’experts en langage.

2. J'ai complètement réussi le test de Turing et abaissé le seuil d'apprentissage et d'utilisation commerciale

En parlant de ça, je pense que tout le monde se posera la même question - GPT-3 est déjà très puissant, alors quoi d'autre est digne de nous dans GPT-4 ? Où attendez-vous avec impatience ?

Comme nous le savons tous, le principal moyen de tester l'intelligence d'un système d'IA est le test de Turing. Alors que nous sommes toujours incapables d'utiliser des normes scientifiques quantifiables pour définir le concept d'intelligence humaine, le test de Turing est actuellement l'un des meilleurs. les quelques Une méthode de test réalisable, réalisable et capable de déterminer si l'autre partie possède une intelligence humaine. Pour reprendre un proverbe : si quelque chose ressemble à un canard, marche comme un canard et cancane comme un canard, alors c'est un canard. Par conséquent, si le système d'IA réussit le test de Turing, cela signifie que le système a une pensée humaine et peut remplacer les humains à certains égards. Selon les médias informatiques coréens, depuis la mi-novembre, l'industrie a rapporté que GPT-4 avait entièrement réussi le test de Turing. Nam Se-dong, directeur de la société sud-coréenne Vodier AI, a déclaré dans une récente interview au journal sud-coréen "Economic News" : "Bien que la nouvelle selon laquelle GPT-4 a réussi le test de Turing n'ait pas été officiellement confirmée, la nouvelle devrait être tout à fait crédible

."

Personne technique, ancien PDG d'OpenAI, Sam Altman a également semblé confirmer cette information sur son Twitter. Altman a tweeté le 10 novembre, imitant une réplique classique du personnage de Star Wars, Dark Vador : "Ne soyez pas fier de cette panique technologique que vous avez créée. La capacité de réussir le test de Turing est "originale". rien que vous puissiez faire face à la force. »

La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de lindustrie ne peuvent pas rester les bras croisés !

Source : Twitter

Un dirigeant d'une start-up d'IA a analysé que « Si GPT-4 réussit vraiment parfaitement le test de Turing, alors son impact sera suffisant pour faire sensation dans l'IA. monde." Panique technologique', alors Altman a utilisé le personnage de Dark Vador pour annoncer cette information. "

Si GPT-4 réussit le test de Turing sans aucune restriction, il entrera effectivement dans l'histoire. Bien que certains modèles d’IA aient déjà prétendu réussir le test de Turing, ils n’ont jamais été unanimement reconnus par l’industrie de l’IA. En effet, les normes et règles du test de Turing ne sont pas claires, c'est pourquoi de nombreux modèles exploitent intelligemment certains « angles morts » du test. Le modèle d'IA "Eugene" lancé par l'Université de Reading au Royaume-Uni en 2014 en est un exemple typique. À cette époque, l'Université de Reading affirmait devant les juges que le modèle était un garçon ukrainien de 13 ans. lorsque l'algorithme ne pouvait pas donner une bonne réponse. À cette époque, le jury pensait que c'était parce que le sujet du test était un enfant étranger.

La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de lindustrie ne peuvent pas rester les bras croisés !

Source : Internet

Bien que le test de Turing ne soit pas une référence absolue pour la technologie de l'IA, en tant que test de technologie d'IA le plus ancien et le plus connu à ce jour, le test de Turing a toujours une grande importance symbolique. signification. Si GPT-4 réussit vraiment officiellement et définitivement le test de Turing, il créera très probablement la plus grande étape dans l'industrie de l'IA jusqu'à présent.

De plus, contrairement à GPT-3, GPT-4 sera très probablement plus qu'un simple modèle de langage. Ilya Sutskever, scientifique en chef d'OpenAI, a un jour fait allusion à cela dans son article multimodal : « Le texte lui-même peut exprimer de nombreuses informations sur le monde, mais il est après tout incomplet, car nous vivons également dans un monde visuel. » Par conséquent, certains les experts du secteur estiment que GPT-4 sera multimodal et pourra accepter des entrées audio, texte, images et même vidéo, et prédisent que l'ensemble de données audio Whisper d'OpenAI sera utilisé pour créer des données texte GPT-4. Cela signifie également que GPT-4 n'aura plus aucune limitation dans la réception et le traitement des informations externes.

La raison pour laquelle l'industrie prête attention au GPT-4 est probablement parce que le seuil commercial réel du GPT-4 sera inférieur à celui du GPT-3 traditionnel. Les entreprises qui n'étaient auparavant pas en mesure d'utiliser les technologies associées en raison de coûts énormes et de raisons d'infrastructure devraient également utiliser GPT-4. GPT-4 est actuellement en phase finale de cotation et sera publié entre décembre de cette année et février de l'année prochaine. Alberto Garcia, analyste chez Cambridge AI Research, a publié un blog et prédit : « GPT-4 se concentrera davantage sur l'optimisation du traitement des données, de sorte que le coût d'apprentissage de GPT-4 devrait être inférieur à celui de GPT-3. coût par épisode de GPT-4 Il sera probablement réduit de plusieurs millions de dollars pour GPT-3 à environ 1 million de dollars.

3. Différents chemins mènent au même objectif : la simulation du cerveau humain pourrait être plus rapide

Si toutes les informations ci-dessus sont vraies, alors à l'heure actuelle, nous pouvons prévoir qu'avec la sortie de GPT-4, le domaine de la recherche sur l'apprentissage profond ouvrira la voie à une nouvelle vague l'année prochaine ; Un grand nombre de robots de service de chat plus avancés, plus naturels et dont l'identité est presque impossible à distinguer apparaîtront probablement dans diverses industries sur cette base, il y en aura également davantage ; des services d'IA personnalisés de haute qualité provenant de différentes entreprises traditionnelles sont nés ; nous parviendrons également pour la première fois à une communication sans obstacle avec l'intelligence cognitive.

Reprenons la problématique de fabrication ou de simulation de cerveaux humains évoquée au début. Selon une étude du MIT, bien que le réseau neuronal de GPT-3 ne tente pas d'imiter directement le cerveau humain, la méthode de traitement du langage présentée par GPT-3 présente certaines similitudes avec les solutions obtenues au cours de l'évolution du cerveau humain. lorsque le même stimulus que le cerveau humain testé a été entré dans le modèle, le modèle a obtenu le même type d'activation que le cerveau humain, et dans plus de 40 tests de modèles de langage, GPT-3 a fait des inférences presque parfaites. La fonction est en effet similaire à celle du centre de traitement du langage du cerveau humain. À cet égard, Daniel Yamins, professeur adjoint de psychologie et d'informatique à l'Université de Stanford, a également déclaré : « Le réseau d'intelligence artificielle n'imite pas directement le cerveau, mais il finit par ressembler au cerveau. un écart entre l’intelligence artificielle et la nature. Il semble y avoir une évolution convergente en cours.

La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de lindustrie ne peuvent pas rester les bras croisés !

Source : Internet

On peut voir que bien que le modèle de la série GPT n'adopte pas directement l'idée de conception de​​simuler la structure cérébrale dans le projet Blue Brain, l'effet qu'il présente semble meilleur que celui des projets du Plan Blue Brain, plus proche de nos attentes. Par conséquent, si cette direction de recherche est vraiment réalisable et que GPT-4 peut réaliser une avancée décisive dans certains aspects sur la base de GPT-3, nous serons alors un pas de plus vers l'objectif de simuler certaines fonctions du cerveau humain.

Enfin, je voudrais terminer en citant un passage que le PDG d’OpenAI, Sam Altman, a récemment publié sur Twitter, qui a également été reconnu par « l’Iron Man de la Silicon Valley » Elon Musk – « La mise en place de l’intelligence artificielle générale sera meilleure que La plupart des gens l’imaginent plus rapidement, et cela « changera » tout ce que la plupart des gens imaginent sur une longue période de temps. »

La sortie imminente de GPT4 est comparable au cerveau humain, et de nombreux leaders de lindustrie ne peuvent pas rester les bras croisés !

Source de l'image : Twitter

Lien de référence :

https://dzone.com/articles/what-can-you-do-with-the-openai-gpt-3-langue - mod

https://analyticsindiamag.com/gpt-4-is-almost-here-and-it-looks-better-than-anything-else/

https://analyticsindiamag.com/openais-whisper- could -détenir-la-clé-de-gpt4/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Nouvelle fonctionnalité de PHP version 5.4 : Comment utiliser les paramètres d'indication de type appelable pour accepter des fonctions ou des méthodes appelables Nouvelle fonctionnalité de PHP version 5.4 : Comment utiliser les paramètres d'indication de type appelable pour accepter des fonctions ou des méthodes appelables Jul 29, 2023 pm 09:19 PM

Nouvelle fonctionnalité de la version PHP5.4 : Comment utiliser les paramètres d'indication de type appelable pour accepter des fonctions ou des méthodes appelables Introduction : La version PHP5.4 introduit une nouvelle fonctionnalité très pratique : vous pouvez utiliser des paramètres d'indication de type appelable pour accepter des fonctions ou des méthodes appelables. Cette nouvelle fonctionnalité permet aux fonctions et méthodes de spécifier directement les arguments appelables correspondants sans vérifications ni conversions supplémentaires. Dans cet article, nous présenterons l'utilisation d'indicateurs de type appelables et fournirons quelques exemples de code,

Que signifient les paramètres du produit ? Que signifient les paramètres du produit ? Jul 05, 2023 am 11:13 AM

Les paramètres du produit font référence à la signification des attributs du produit. Par exemple, les paramètres vestimentaires incluent la marque, le matériau, le modèle, la taille, le style, le tissu, le groupe applicable, la couleur, etc. ; les paramètres alimentaires incluent la marque, le poids, le matériau, le numéro de licence sanitaire, le groupe applicable, la couleur, etc. ; inclure la marque, la taille, la couleur, le lieu d'origine, la tension applicable, le signal, l'interface et la puissance, etc.

Avertissement PHP : la solution au paramètre in_array() attend Avertissement PHP : la solution au paramètre in_array() attend Jun 22, 2023 pm 11:52 PM

Pendant le processus de développement, nous pouvons rencontrer un tel message d'erreur : PHPWarning : in_array()expectsparameter. Ce message d'erreur apparaîtra lors de l'utilisation de la fonction in_array(). Cela peut être dû à un passage incorrect des paramètres de la fonction. Jetons un coup d'œil à la solution à ce message d'erreur. Tout d’abord, vous devez clarifier le rôle de la fonction in_array() : vérifier si une valeur existe dans le tableau. Le prototype de cette fonction est : in_a

Liste d'évaluation des paramètres i9-12900H Liste d'évaluation des paramètres i9-12900H Feb 23, 2024 am 09:25 AM

Le i9-12900H est un processeur à 14 cœurs. L'architecture et la technologie utilisées sont toutes nouvelles, et les threads sont également très élevés. Le travail global est excellent et certains paramètres ont été améliorés et peuvent apporter aux utilisateurs une excellente expérience. . Examen de l'évaluation des paramètres du i9-12900H : 1. Le i9-12900H est un processeur à 14 cœurs, qui adopte l'architecture q1 et la technologie de processus de 24 576 Ko, et a été mis à niveau vers 20 threads. 2. La fréquence maximale du processeur est de 1,80 ! 5,00 GHz, ce qui dépend principalement de la charge de travail. 3. Par rapport au prix, il est très approprié. Le rapport qualité-prix est très bon et il convient très bien à certains partenaires qui ont besoin d'une utilisation normale. Évaluation des paramètres du i9-12900H et scores de performance

Contrôle de sécurité du type de paramètre de fonction C++ Contrôle de sécurité du type de paramètre de fonction C++ Apr 19, 2024 pm 12:00 PM

La vérification de sécurité des types de paramètres C++ garantit que les fonctions n'acceptent que les valeurs des types attendus via des vérifications au moment de la compilation, des vérifications au moment de l'exécution et des assertions statiques, évitant ainsi tout comportement inattendu et les plantages du programme : Vérification du type au moment de la compilation : le compilateur vérifie la compatibilité des types. Vérification du type d'exécution : utilisez Dynamic_cast pour vérifier la compatibilité des types et lancez une exception s'il n'y a pas de correspondance. Assertion statique : affirmer les conditions de type au moment de la compilation.

Programme C++ pour trouver la valeur de la fonction sinus hyperbolique inverse en prenant une valeur donnée comme argument Programme C++ pour trouver la valeur de la fonction sinus hyperbolique inverse en prenant une valeur donnée comme argument Sep 17, 2023 am 10:49 AM

Les fonctions hyperboliques sont définies à l'aide d'hyperboles au lieu de cercles et sont équivalentes aux fonctions trigonométriques ordinaires. Il renvoie le paramètre de rapport dans la fonction sinus hyperbolique à partir de l'angle fourni en radians. Mais faites le contraire, ou en d’autres termes. Si nous voulons calculer un angle à partir d’un sinus hyperbolique, nous avons besoin d’une opération trigonométrique hyperbolique inverse comme l’opération sinus hyperbolique inverse. Ce cours montrera comment utiliser la fonction sinus hyperbolique inverse (asinh) en C++ pour calculer des angles en utilisant la valeur du sinus hyperbolique en radians. L'opération arc sinus hyperbolique suit la formule suivante -$$\mathrm{sinh^{-1}x\:=\:In(x\:+\:\sqrt{x^2\:+\:1})}, Où\:In\:is\:logarithme naturel\:(log_e\:k)

Un modèle de langage avec 10 milliards de paramètres ne peut-il pas fonctionner ? Un médecin chinois du MIT a proposé la quantification SmoothQuant, qui a réduit de moitié les besoins en mémoire et augmenté la vitesse de 1,56 fois ! Un modèle de langage avec 10 milliards de paramètres ne peut-il pas fonctionner ? Un médecin chinois du MIT a proposé la quantification SmoothQuant, qui a réduit de moitié les besoins en mémoire et augmenté la vitesse de 1,56 fois ! Apr 13, 2023 am 09:31 AM

Bien que les grands modèles de langage (LLM) aient de fortes performances, le nombre de paramètres peut facilement atteindre des centaines ou des centaines de milliards, et la demande en équipement informatique et en mémoire est si importante que les entreprises ordinaires ne peuvent pas se le permettre. La quantification est une opération de compression courante qui sacrifie une partie des performances du modèle en échange d'une vitesse d'inférence plus rapide et de moins de besoins en mémoire en réduisant la précision des pondérations du modèle (par exemple, 32 bits à 8 bits). Mais pour les LLM comportant plus de 100 milliards de paramètres, les méthodes de compression existantes ne peuvent pas maintenir la précision du modèle, ni fonctionner efficacement sur le matériel. Récemment, des chercheurs du MIT et de NVIDIA ont proposé conjointement une quantification post-formation (GPQ) à usage général.

Utilisation avancée des paramètres de référence et des paramètres de pointeur dans les fonctions C++ Utilisation avancée des paramètres de référence et des paramètres de pointeur dans les fonctions C++ Apr 21, 2024 am 09:39 AM

Les paramètres de référence dans les fonctions C++ (essentiellement les alias de variable, la modification de la référence modifie la variable d'origine) et les paramètres de pointeur (stockage de l'adresse mémoire de la variable d'origine, modification de la variable en déréférençant le pointeur) ont des utilisations différentes lors du passage et de la modification de variables. Les paramètres de référence sont souvent utilisés pour modifier les variables d'origine (en particulier les grandes structures) afin d'éviter une surcharge de copie lorsqu'elles sont transmises aux constructeurs ou aux opérateurs d'affectation. Les paramètres de pointeur sont utilisés pour pointer de manière flexible vers des emplacements de mémoire, implémenter des structures de données dynamiques ou transmettre des pointeurs nuls pour représenter des paramètres facultatifs.

See all articles