


Zhipu AI lance un modèle de troisième génération à grande base, adapté aux puces nationales
·Le modèle de base à grande base de troisième génération ChatGLM3 vise le mode visuel GPT-4V, qui améliore la capacité de comprendre les graphiques et les textes chinois, et dispose d'un accès amélioré à la recherche. Il peut rechercher automatiquement des informations pertinentes sur Internet en fonction de questions. et fournissez des références ou des liens d’articles lorsque vous répondez. Les modèles de test final ChatGLM3-1.5B et ChatGLM3-3B prennent en charge les téléphones mobiles et les plates-formes de véhicules Vivo, Xiaomi, Samsung.
Le 27 octobre, lors de la China Computer Conference 2023, la société chinoise de grands modèles cognitifs Beijing Zhipu Huazhang Technology Co., Ltd. (ci-après dénommée « Zhipu AI ») a lancé le grand modèle de base de troisième génération ChatGLM3, qui adopte plusieurs -prédiction améliorée par étape. La méthode de formation rend la formation plus complète et a lancé ChatGLM3-1.5B et ChatGLM3-3B qui peuvent être déployés sur les téléphones mobiles, prenant en charge une variété de téléphones mobiles et de plates-formes montées sur véhicule, notamment vivo, Xiaomi et Samsung. .
Visant le mode visuel GPT-4V, ChatGLM3 a mis en œuvre des mises à niveau itératives de plusieurs nouvelles fonctions, notamment la capacité de compréhension multimodale de CogVLM, qui a atteint SOTA (meilleures performances) sur plus de 10 ensembles de données d'évaluation d'images et de textes standards internationaux. . , État de l'art). Le modèle CogVLM améliore la compréhension des graphiques et du texte chinois, peut effectuer une détection de cible complexe et l'étiqueter pour compléter l'annotation automatique des données. Les recettes peuvent être données à partir de photos d'ingrédients et adaptées au goût de l'interlocuteur.
Les recettes sont données sur la base de photos d'ingrédients.
Zhang Peng, PDG de Zhipu AI, a déclaré à The Paper (www.thepaper.cn) que les grands modèles multimodaux ont fait de nombreux progrès concrets dans la perception interactive de la parole, de la vision et du langage naturel. -les grands modèles modaux passeront à une étape plus importante, davantage de données modales pourront être intégrées et la pré-formation multimodale conduira également à de nouvelles améliorations de l'intelligence ou des capacités cognitives des grands modèles.
Analysez le contenu de l'image.
Le module d'amélioration du code de ChatGLM3, Code Interpreter, génère et exécute du code en fonction des besoins de l'utilisateur, accomplissant automatiquement des tâches complexes telles que l'analyse des données et le traitement des fichiers. La fonction « code » prend actuellement en charge le traitement d'images, les calculs mathématiques, l'analyse de données et d'autres scénarios d'utilisation.
Générez du code et exécutez-le en fonction des besoins de l'utilisateur.
Amélioration de la recherche sur le Web L'amélioration de la recherche d'accès WebGLM peut rechercher automatiquement des informations pertinentes sur Internet en fonction de questions et fournir des références ou des liens d'articles lors de la réponse.
ChatGLM3 intègre la technologie AgentTuning, active les capacités d'agent de modèle et permet aux grands modèles nationaux de prendre en charge de manière native l'invocation d'outils, l'exécution de code, les jeux, les opérations de base de données, la recherche et le raisonnement de graphiques de connaissances, les systèmes d'exploitation et d'autres scénarios.
Actuellement, ChatGLM3 a lancé les modèles de test final ChatGLM3-1.5B et ChatGLM3-3B qui peuvent être déployés sur les téléphones mobiles. Ils prennent en charge une variété de téléphones mobiles et de plates-formes montées sur véhicule, notamment Vivo, Xiaomi et Samsung. Puces CPU sur plateformes mobiles à une vitesse de 20 tokens/s.
Les modèles de test final ChatGLM3-1.5B et ChatGLM3-3B prennent en charge les téléphones mobiles et les plates-formes de véhicules Vivo, Xiaomi, Samsung.
Zhang Peng a déclaré que depuis le début de 2022, les modèles de la série GLM lancés par Zhipu AI prennent en charge la pré-formation et l'inférence à grande échelle sur les architectures Ascend, Sunway Supercomputing et Haiguang DCU. À l'heure actuelle, les produits de Zhipu AI prennent en charge plus de 10 écosystèmes matériels nationaux, et l'innovation conjointe avec les sociétés nationales de puces contribuera au développement de grands modèles natifs nationaux et de puces nationales.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds



Le 30 mai, Tencent a annoncé une mise à niveau complète de son modèle Hunyuan. L'application « Tencent Yuanbao » basée sur le modèle Hunyuan a été officiellement lancée et peut être téléchargée sur les magasins d'applications Apple et Android. Par rapport à la version de l'applet Hunyuan lors de la phase de test précédente, Tencent Yuanbao fournit des fonctionnalités de base telles que la recherche IA, le résumé IA et l'écriture IA pour les scénarios d'efficacité du travail ; pour les scénarios de la vie quotidienne, le gameplay de Yuanbao est également plus riche et fournit de multiples fonctionnalités d'application IA. , et de nouvelles méthodes de jeu telles que la création d'agents personnels sont ajoutées. « Tencent ne s'efforcera pas d'être le premier à créer un grand modèle. » Liu Yuhong, vice-président de Tencent Cloud et responsable du grand modèle Tencent Hunyuan, a déclaré : « Au cours de l'année écoulée, nous avons continué à promouvoir les capacités de Tencent. Grand modèle Tencent Hunyuan. Dans la technologie polonaise riche et massive dans des scénarios commerciaux tout en obtenant un aperçu des besoins réels des utilisateurs.

Tan Dai, président de Volcano Engine, a déclaré que les entreprises qui souhaitent bien mettre en œuvre de grands modèles sont confrontées à trois défis clés : l'effet de modèle, le coût d'inférence et la difficulté de mise en œuvre : elles doivent disposer d'un bon support de base de grands modèles pour résoudre des problèmes complexes, et elles doivent également avoir une inférence à faible coût. Les services permettent d'utiliser largement de grands modèles, et davantage d'outils, de plates-formes et d'applications sont nécessaires pour aider les entreprises à mettre en œuvre des scénarios. ——Tan Dai, président de Huoshan Engine 01. Le grand modèle de pouf fait ses débuts et est largement utilisé. Le polissage de l'effet de modèle est le défi le plus critique pour la mise en œuvre de l'IA. Tan Dai a souligné que ce n'est que grâce à une utilisation intensive qu'un bon modèle peut être poli. Actuellement, le modèle Doubao traite 120 milliards de jetons de texte et génère 30 millions d'images chaque jour. Afin d'aider les entreprises à mettre en œuvre des scénarios de modèles à grande échelle, le modèle à grande échelle beanbao développé indépendamment par ByteDance sera lancé à travers le volcan.

1. Positionnement du produit TensorRT-LLM TensorRT-LLM est une solution d'inférence évolutive développée par NVIDIA pour les grands modèles de langage (LLM). Il crée, compile et exécute des graphiques de calcul basés sur le cadre de compilation d'apprentissage en profondeur TensorRT et s'appuie sur l'implémentation efficace des noyaux dans FastTransformer. De plus, il utilise NCCL pour la communication entre les appareils. Les développeurs peuvent personnaliser les opérateurs pour répondre à des besoins spécifiques en fonction du développement technologique et des différences de demande, comme le développement de GEMM personnalisés basés sur le coutelas. TensorRT-LLM est la solution d'inférence officielle de NVIDIA, engagée à fournir des performances élevées et à améliorer continuellement sa praticité. TensorRT-LL

Selon des informations du 4 avril, l'Administration du cyberespace de Chine a récemment publié une liste de grands modèles enregistrés, et le « Grand modèle d'interaction du langage naturel Jiutian » de China Mobile y a été inclus, indiquant que le grand modèle Jiutian AI de China Mobile peut officiellement fournir des informations artificielles génératives. services de renseignement vers le monde extérieur. China Mobile a déclaré qu'il s'agit du premier modèle à grande échelle développé par une entreprise centrale à avoir réussi à la fois le double enregistrement national « Enregistrement du service d'intelligence artificielle générative » et le double enregistrement « Enregistrement de l'algorithme de service de synthèse profonde domestique ». Selon les rapports, le grand modèle d'interaction en langage naturel de Jiutian présente les caractéristiques de capacités, de sécurité et de crédibilité améliorées de l'industrie, et prend en charge la localisation complète. Il a formé plusieurs versions de paramètres telles que 9 milliards, 13,9 milliards, 57 milliards et 100 milliards. et peut être déployé de manière flexible dans le Cloud, la périphérie et la fin sont des situations différentes

Si les questions du test sont trop simples, les meilleurs étudiants et les mauvais étudiants peuvent obtenir 90 points, et l'écart ne peut pas être creusé... Avec la sortie plus tard de modèles plus puissants tels que Claude3, Llama3 et même GPT-5, l'industrie est en besoin urgent d'un modèle de référence plus difficile et différencié. LMSYS, l'organisation à l'origine du grand modèle Arena, a lancé la référence de nouvelle génération, Arena-Hard, qui a attiré une large attention. Il existe également la dernière référence pour la force des deux versions affinées des instructions Llama3. Par rapport à MTBench, qui avait des scores similaires auparavant, la discrimination Arena-Hard est passée de 22,6 % à 87,4 %, ce qui est plus fort et plus faible en un coup d'œil. Arena-Hard est construit à partir de données humaines en temps réel provenant de l'arène et a un taux de cohérence de 89,1 % avec les préférences humaines.

« Une complexité élevée, une fragmentation élevée et des domaines interdomaines » ont toujours été les principaux problèmes sur la voie de la mise à niveau numérique et intelligente du secteur des transports. Récemment, le « modèle de trafic Qinling·Qinchuan » avec une échelle de paramètres de 100 milliards, construit conjointement par China Science Vision, le gouvernement du district de Xi'an Yanta et le centre informatique d'intelligence artificielle du futur de Xi'an, est orienté vers le domaine des transports intelligents. et fournit des services à Xi'an et ses environs. La région créera un pivot pour l'innovation en matière de transport intelligent. Le « modèle de trafic Qinling·Qinchuan » combine les données écologiques massives du trafic local de Xi'an dans des scénarios ouverts, l'algorithme avancé original développé indépendamment par China Science Vision et la puissante puissance de calcul de l'IA Shengteng du futur centre informatique d'intelligence artificielle de Xi'an pour fournir la surveillance du réseau routier, les scénarios de transport intelligents tels que la commande d'urgence, la gestion de la maintenance et les déplacements publics entraînent des changements numériques et intelligents. La gestion du trafic présente des caractéristiques différentes selon les villes, et le trafic sur différentes routes

1. Introduction au contexte Tout d’abord, présentons l’historique du développement de la technologie Yunwen. Yunwen Technology Company... 2023 est la période où les grands modèles prédominent. De nombreuses entreprises pensent que l'importance des graphiques a été considérablement réduite après les grands modèles et que les systèmes d'information prédéfinis étudiés précédemment ne sont plus importants. Cependant, avec la promotion du RAG et la prévalence de la gouvernance des données, nous avons constaté qu'une gouvernance des données plus efficace et des données de haute qualité sont des conditions préalables importantes pour améliorer l'efficacité des grands modèles privatisés. Par conséquent, de plus en plus d'entreprises commencent à y prêter attention. au contenu lié à la construction des connaissances. Cela favorise également la construction et le traitement des connaissances à un niveau supérieur, où de nombreuses techniques et méthodes peuvent être explorées. On voit que l'émergence d'une nouvelle technologie ne détruit pas toutes les anciennes technologies, mais peut également intégrer des technologies nouvelles et anciennes.

Selon les informations du 13 juin, selon le compte public « Volcano Engine » de Byte, l'assistant d'intelligence artificielle de Xiaomi « Xiao Ai » a conclu une coopération avec Volcano Engine. Les deux parties réaliseront une expérience interactive d'IA plus intelligente basée sur le grand modèle beanbao. . Il est rapporté que le modèle beanbao à grande échelle créé par ByteDance peut traiter efficacement jusqu'à 120 milliards de jetons de texte et générer 30 millions de contenus chaque jour. Xiaomi a utilisé le grand modèle Doubao pour améliorer les capacités d'apprentissage et de raisonnement de son propre modèle et créer un nouveau « Xiao Ai Classmate », qui non seulement saisit plus précisément les besoins des utilisateurs, mais offre également une vitesse de réponse plus rapide et des services de contenu plus complets. Par exemple, lorsqu'un utilisateur pose une question sur un concept scientifique complexe, &ldq
