


Cet article vous amènera à comprendre le grand modèle de langage universel développé indépendamment par Tencent - le grand modèle Hunyuan.
Le matin du 7 septembre 2023, lors de la conférence Tencent Global Digital Ecology, Tang Daosheng, vice-président exécutif principal du groupe Tencent et PDG de Tencent Cloud et Smart Industry Group, a annoncé que Tencent entrerait dans l'ère « d'adopter pleinement les grandes models" et a également annoncé en même temps que Hunyuan, un grand modèle de langage à usage général développé indépendamment par Tencent, a officiellement fait ses débuts dans l'industrie. Selon les responsables de Tencent, les capacités en langue chinoise du modèle Hunyuan ont dépassé GPT3.5
Après la sortie, le modèle Hunyuan servira de base aux services Tencent Cloud MaaS. Les utilisateurs pourront en faire l'expérience via le site officiel et le support de Tencent Cloud. appels directs vers l'interface API Vous pouvez également utiliser Hunyuan comme modèle de base et le personnaliser sur le cloud public en fonction des besoins réels de l'entreprise.
1. Introduction au modèle Hunyuan
2. Facturation
Le modèle Tencent Hunyuan fournira un total de 100 000 jetons d'appel gratuits pour les comptes d'entreprise Tencent Cloud qui ont été authentifiés dans la liste blanche. Une fois le service activé, l’entreprise peut utiliser le quota gratuit correspondant. De cette façon, vous pouvez d'abord en faire l'expérience pour confirmer si elle répond à vos besoins, puis considérer les coûts de facturation ultérieurs
Le prix actuel de l'interface est encore tout à fait raisonnable. Lorsque le quota gratuit de l'entreprise est épuisé, il sera facturé au prix suivant : Tencent Hunyuan Large Model Premium Edition facture 0,14 yuans pour 1 000 jetons. (Un jeton équivaut à environ 1 caractère chinois ou 3 lettres anglaises. Au total, 14 cents peuvent effectuer environ deux ou trois appels d'interface)
Le mode de paiement adopte le mode de paiement quotidien post-payé. L'utilisateur soumet une demande d'activation et après. En passant le service, vous pouvez utiliser le service conformément aux règles du service. Les responsables de Tencent Cloud factureront en fonction de l'utilisation réelle, et le montant égal correspondant sera déduit directement du compte.
3. Puissance de calcul
Selon les informations officielles, le grand modèle Hunyuan de Tencent a actuellement une échelle de paramètres de plus de 100 milliards et le corpus de pré-formation dépasse 2 000 milliards de jetons. Après tout, il s'agit d'un fabricant national majeur avec des Chinois très puissants. compréhension, création et raisonnement logique et autres capacités.
Photos
4. Scénarios écologiques d'accès actuels
Le vice-président du groupe Tencent, Jiang Jie, a déclaré dans une interview aux médias qu'actuellement Tencent Cloud, Tencent Advertising, Tencent Games, Tencent Financial Technology, Tencent Conference, Tencent Documents Plus Plus de 50 entreprises et produits Tencent, dont WeChat Search, QQ Browser, etc., ont tous été connectés au grand modèle Tencent Hunyuan à des fins de test et ont obtenu des résultats préliminaires. Les perspectives de développement futur sont très prometteuses.
5. Avantages du grand modèle Hunyuan
Dans de nombreux scénarios, Tencent Hunyuan Large Model a été capable de traiter des textes ultra longs grâce à la technologie d'optimisation du codage positionnel, le grand modèle Hunyuan a amélioré l'effet et les performances du traitement des textes longs. De plus, le grand modèle Hunyuan a également la capacité d'identifier les « pièges ». En termes simples, il refuse d'être « induit » par des méthodes d'apprentissage par renforcement.
Un exemple simple : lorsque les utilisateurs peuvent poser des questions auxquelles il est difficile, voire impossible, de répondre, le taux de rejet de ces questions d'orientation en matière de sécurité peut être augmenté de 20 %. Cela peut réduire considérablement les erreurs et les réponses invalides, rendant ainsi plus crédible le contenu auquel répond le modèle Tencent AI lui-même. C'est également un point fort du grand modèle de Tencent AI
6. Application typique du grand modèle Hunyuan - Tencent Hunyuan Assistant
Image
Actuellement, l'applet WeChat « Tencent Hunyuan Assistant » est désormais ouverte aux applications de test internes. Les utilisateurs peuvent demander à bénéficier d'une expérience de mise en file d'attente et seront rappelés par SMS s'ils sont approuvés. Toute personne intéressée peut rechercher le mini-programme à l'avance et postuler dès que possible. Après tout, le nombre de places pour les tests internes est limité.
Photos
La méthode de candidature est très simple : il suffit de rechercher [Tencent Hunyuan Assistant] dans le mini programme WeChat, et après avoir entré le mini programme, vous pouvez postuler pour des tests internes
Introduction à la fonction
Q&A AI : Ce modèle de dialogue et les modèles de dialogue actuels de l'IA grand public ont des fonctions similaires, permettant à l'IA de saisir du contenu textuel et de donner ensuite les réponses correspondantes.
La peinture IA est actuellement l’une des technologies d’intelligence artificielle les plus populaires. Les utilisateurs peuvent décrire le contenu de l'écran puis générer une belle peinture basée sur des mots-clés
Autres aspects : acquérir des connaissances, résoudre des problèmes mathématiques, traduction linguistique, fournir des guides de voyage, des suggestions de travail, rédiger des rapports, rédiger des curriculum vitae, des compétences bureautiques, etc. .
7. Résumé
L'avènement du grand modèle Hunyuan de Tencent signifie que plusieurs grandes entreprises technologiques nationales disposent actuellement de leurs propres grands modèles d'IA. Bien que le modèle Hunyuan de Tencent ait été lancé tardivement, Tencent dispose d'un énorme écosystème, comprenant WeChat, QQ, des comptes officiels, des mini-programmes, des jeux et des vidéos, et a un énorme potentiel de développement futur
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le 30 mai, Tencent a annoncé une mise à niveau complète de son modèle Hunyuan. L'application « Tencent Yuanbao » basée sur le modèle Hunyuan a été officiellement lancée et peut être téléchargée sur les magasins d'applications Apple et Android. Par rapport à la version de l'applet Hunyuan lors de la phase de test précédente, Tencent Yuanbao fournit des fonctionnalités de base telles que la recherche IA, le résumé IA et l'écriture IA pour les scénarios d'efficacité du travail ; pour les scénarios de la vie quotidienne, le gameplay de Yuanbao est également plus riche et fournit de multiples fonctionnalités d'application IA. , et de nouvelles méthodes de jeu telles que la création d'agents personnels sont ajoutées. « Tencent ne s'efforcera pas d'être le premier à créer un grand modèle. » Liu Yuhong, vice-président de Tencent Cloud et responsable du grand modèle Tencent Hunyuan, a déclaré : « Au cours de l'année écoulée, nous avons continué à promouvoir les capacités de Tencent. Grand modèle Tencent Hunyuan. Dans la technologie polonaise riche et massive dans des scénarios commerciaux tout en obtenant un aperçu des besoins réels des utilisateurs.

Tan Dai, président de Volcano Engine, a déclaré que les entreprises qui souhaitent bien mettre en œuvre de grands modèles sont confrontées à trois défis clés : l'effet de modèle, le coût d'inférence et la difficulté de mise en œuvre : elles doivent disposer d'un bon support de base de grands modèles pour résoudre des problèmes complexes, et elles doivent également avoir une inférence à faible coût. Les services permettent d'utiliser largement de grands modèles, et davantage d'outils, de plates-formes et d'applications sont nécessaires pour aider les entreprises à mettre en œuvre des scénarios. ——Tan Dai, président de Huoshan Engine 01. Le grand modèle de pouf fait ses débuts et est largement utilisé. Le polissage de l'effet de modèle est le défi le plus critique pour la mise en œuvre de l'IA. Tan Dai a souligné que ce n'est que grâce à une utilisation intensive qu'un bon modèle peut être poli. Actuellement, le modèle Doubao traite 120 milliards de jetons de texte et génère 30 millions d'images chaque jour. Afin d'aider les entreprises à mettre en œuvre des scénarios de modèles à grande échelle, le modèle à grande échelle beanbao développé indépendamment par ByteDance sera lancé à travers le volcan.

Selon des informations du 4 avril, l'Administration du cyberespace de Chine a récemment publié une liste de grands modèles enregistrés, et le « Grand modèle d'interaction du langage naturel Jiutian » de China Mobile y a été inclus, indiquant que le grand modèle Jiutian AI de China Mobile peut officiellement fournir des informations artificielles génératives. services de renseignement vers le monde extérieur. China Mobile a déclaré qu'il s'agit du premier modèle à grande échelle développé par une entreprise centrale à avoir réussi à la fois le double enregistrement national « Enregistrement du service d'intelligence artificielle générative » et le double enregistrement « Enregistrement de l'algorithme de service de synthèse profonde domestique ». Selon les rapports, le grand modèle d'interaction en langage naturel de Jiutian présente les caractéristiques de capacités, de sécurité et de crédibilité améliorées de l'industrie, et prend en charge la localisation complète. Il a formé plusieurs versions de paramètres telles que 9 milliards, 13,9 milliards, 57 milliards et 100 milliards. et peut être déployé de manière flexible dans le Cloud, la périphérie et la fin sont des situations différentes

1. Introduction au contexte Tout d’abord, présentons l’historique du développement de la technologie Yunwen. Yunwen Technology Company... 2023 est la période où les grands modèles prédominent. De nombreuses entreprises pensent que l'importance des graphiques a été considérablement réduite après les grands modèles et que les systèmes d'information prédéfinis étudiés précédemment ne sont plus importants. Cependant, avec la promotion du RAG et la prévalence de la gouvernance des données, nous avons constaté qu'une gouvernance des données plus efficace et des données de haute qualité sont des conditions préalables importantes pour améliorer l'efficacité des grands modèles privatisés. Par conséquent, de plus en plus d'entreprises commencent à y prêter attention. au contenu lié à la construction des connaissances. Cela favorise également la construction et le traitement des connaissances à un niveau supérieur, où de nombreuses techniques et méthodes peuvent être explorées. On voit que l'émergence d'une nouvelle technologie ne détruit pas toutes les anciennes technologies, mais peut également intégrer des technologies nouvelles et anciennes.

Si les questions du test sont trop simples, les meilleurs étudiants et les mauvais étudiants peuvent obtenir 90 points, et l'écart ne peut pas être creusé... Avec la sortie plus tard de modèles plus puissants tels que Claude3, Llama3 et même GPT-5, l'industrie est en besoin urgent d'un modèle de référence plus difficile et différencié. LMSYS, l'organisation à l'origine du grand modèle Arena, a lancé la référence de nouvelle génération, Arena-Hard, qui a attiré une large attention. Il existe également la dernière référence pour la force des deux versions affinées des instructions Llama3. Par rapport à MTBench, qui avait des scores similaires auparavant, la discrimination Arena-Hard est passée de 22,6 % à 87,4 %, ce qui est plus fort et plus faible en un coup d'œil. Arena-Hard est construit à partir de données humaines en temps réel provenant de l'arène et a un taux de cohérence de 89,1 % avec les préférences humaines.

Il est entendu que le client de bureau Tencent QQ a subi une série de réformes drastiques. En réponse aux problèmes des utilisateurs tels qu'une utilisation élevée de la mémoire, des packages d'installation surdimensionnés et un démarrage lent, l'équipe technique de QQ a réalisé des optimisations spéciales sur la mémoire et a progressé progressivement. Récemment, l'équipe technique de QQ a publié un article d'introduction à la plateforme InfoQ, partageant ses progrès progressifs en matière d'optimisation spéciale de la mémoire. Selon les rapports, les défis de mémoire de la nouvelle version de QQ se reflètent principalement dans les quatre aspects suivants : Forme du produit : il se compose d'un grand panneau complexe (plus de 100 modules de complexité variable) et d'une série de fenêtres fonctionnelles indépendantes. Il existe une correspondance biunivoque entre les fenêtres et les processus de rendu. Le nombre de processus de fenêtre affecte grandement l'utilisation de la mémoire d'Electron. Pour ce grand panneau complexe, une fois qu'il n'y a plus

Selon les informations du 13 juin, selon le compte public « Volcano Engine » de Byte, l'assistant d'intelligence artificielle de Xiaomi « Xiao Ai » a conclu une coopération avec Volcano Engine. Les deux parties réaliseront une expérience interactive d'IA plus intelligente basée sur le grand modèle beanbao. . Il est rapporté que le modèle beanbao à grande échelle créé par ByteDance peut traiter efficacement jusqu'à 120 milliards de jetons de texte et générer 30 millions de contenus chaque jour. Xiaomi a utilisé le grand modèle Doubao pour améliorer les capacités d'apprentissage et de raisonnement de son propre modèle et créer un nouveau « Xiao Ai Classmate », qui non seulement saisit plus précisément les besoins des utilisateurs, mais offre également une vitesse de réponse plus rapide et des services de contenu plus complets. Par exemple, lorsqu'un utilisateur pose une question sur un concept scientifique complexe, &ldq

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes
