Il y a vraiment une tendance à encercler et à supprimer Google !
Lorsque Google a réalisé une série de versions majeures lors de la conférence Cloud Next hier soir, vous êtes tous venus attirer l'attention : OpenAI a mis à jour GPT-4 Turbo dans le passé, et Mistral a open source un grand modèle 8X22B plus tard. . Google Heart : Un groupe d'enfants à Nancun m'a intimidé parce que je suis vieux et faible.
Le deuxième plus grand modèle open source : Mixtral 8X22BEn janvier de cette année, Mistral AI a annoncé les détails techniques de Mixtral 8x7B et a lancé Mixtral 8x7B – Modèle de chat Instruct. Les performances du modèle surpassent considérablement les modèles de discussion GPT-3.5 Turbo, Claude-2.1, Gemini Pro et Llama 2 70B sur les tests d'évaluation humaine. À peine 3 mois plus tard, Mistral AI a open source le modèle Mistral 8X22B, apportant ainsi à la communauté open source un autre grand modèle doté de solides performances. Quelqu'un a examiné les détails du modèle Mistral 8X22B et la taille du fichier du modèle est d'environ 262 Go. En conséquence, Mistral 8X22B est devenu le deuxième plus grand modèle open source à ce jour, juste derrière le Grok-1 précédemment lancé par xAI (avec un volume de paramètres de 314 milliards). Certaines personnes se sont exclamées qu'il y avait un autre « grand gars » dans le cercle du MoE. Le MoE est un mélange de modèles experts, et auparavant Grok-1 était également un modèle MoE. Nouvelle mise à niveau de la fonction de vision GPT-4 Turbo De l'autre côté, OpenAI a annoncé que GPT-4 Turbo avec Vision est désormais disponible via l'API, et la fonction Vision peut également utiliser le schéma JSON et appels de fonction. Voici les détails du site officiel d'OpenAI. Malgré cela, les internautes de tous horizons n'ont "pas froid" aux réparations mineures d'OpenAI. https://platform.openai.com/docs/models/continuous-model-upgradesCe qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!