Aujourd'hui, il doit y avoir une grande nouvelle dans votre cercle d'amis :
"GPT 3 a 175 milliards de paramètres, et le prochain GPT4 en a 100 000 milliards". Une telle "grande nouvelle" a fait exploser la communauté de l'IA et a attiré une grande attention sur Twitter et WeChat Moments. De nombreux internautes ont crié : La bombe nucléaire arrive, c'est inimaginable.
Bien que nous soyons également étonnés par la capacité d'OpenAI à créer des enregistrements, nous sommes toujours sceptiques quant aux "paramètres GPT 4 pouvant atteindre 100 000 milliards". J'ai donc soigneusement vérifié les sources d'information et leur fiabilité.
L'utilisateur de Twitter @Russell Thomas a déclaré : « Les données des paramètres de GPT4 sont incorrectes. Il a été rapporté il y a un an que les paramètres de GPT4 atteindraient 100 000 milliards, mais il a été récemment confirmé qu'elles étaient incorrectes. Les membres de l'équipe concernés ont confirmé : La quantité de paramètres de GPT4 ne sera que légèrement supérieure à celle de GPT3. l'a confirmé. Un peu. "Tout le monde l'est aussi, je ne suis plus calme." Cela semble également indiquer l'attitude d'OpenAI envers les rumeurs sur les paramètres GPT4.
L'article récent de DataCamp « Tout ce que nous savons sur GPT-4 » mentionne également la question de la taille du modèle, confirmant qu'il ne sera pas beaucoup plus grand que GPT 3.
D'après les informations de toutes les parties, GPT 4 avec 100 000 milliards de paramètres est très probablement une fausse nouvelle.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!