


L'IA générative peut-elle sauver l'industrie des télécommunications ?
Lors de la conférence MWC 2024 qui s'est tenue récemment, NVIDIA a publié une série d'annonces, notamment une coopération avec ARM, ServiceNow et SoftBank, la création de l'alliance AI-RAN et un accord majeur avec Telenor. Telenor accède au dernier matériel et aux logiciels d'IA d'entreprise de Nvidia pour prendre en charge les nombreux cas d'utilisation de l'intelligence artificielle utilisés dans ses opérations.
Exploration de la relation plus large entre l'industrie des télécommunications et l'IA générative
Chris Penrose, responsable du développement commercial mondial des télécommunications chez NVIDIA, a mené une étude approfondie du lien plus profond entre l'industrie des télécommunications et l'IA générative dans une interview avec médias de l'industrie.
Interrogé sur le plus gros problème auquel est confronté le secteur des télécommunications, il a déclaré : « Je dirais que les entreprises de télécommunications investissent massivement dans la 5G en ce moment, mais cela ne se traduit pas nécessairement par une augmentation significative de leurs revenus. pour garantir un retour sur investissement, au début, beaucoup de gens étaient enthousiasmés par les applications révolutionnaires qui prendraient cette valeur, et je pense que nous sommes en fait dans un moment intéressant maintenant parce que je pense que l'IA générative a le potentiel d'être meurtrière . Applications, et cela est en train d'émerger.
Parce que les applications existantes utilisent l'IA générative dans le cadre de leur interface utilisateur, il existe désormais une véritable opportunité, qu'il s'agisse de fournir une infrastructure en tant que service, qu'il s'agisse de fournir une formation en tant que service ou d'inférence. Les applications en tant que service, et même les applications d'IA, constituent des opportunités entièrement nouvelles portées par l'IA générative, et les opérateurs télécoms cherchent à tirer parti de l'IA générative pour générer des revenus supplémentaires qui leur permettront de rentabiliser et d'exploiter les fondements de la 5G comme ils le souhaitent. tous le veulent. »
Les entreprises de télécommunications ne sont peut-être pas une force essentielle dans le domaine de l’IA générative
Bien que de nombreuses entreprises de télécommunications espèrent jouer un rôle important dans le domaine très médiatisé de l’IA générative, elles ne le sont pas. nécessairement au cœur de l’action motrice. Actuellement, l’IA générative est un axe commercial clé des grandes entreprises technologiques telles que Google et Microsoft.
Penrose a déclaré : « Nous voyons de nombreuses sociétés de télécommunications commencer à agir car il s'agit de la prochaine vague technologique. De nombreux pays et régions se posent la question : « De quel type d'infrastructure avons-nous besoin pour conduire cela ? " ? Processus d'IA ? " C'est ce que nous appelons la création d'usines d'IA ou la mise en place de cloud d'IA souverains dans ces pays
Alors, les gens commencent-ils à voir de plus en plus d'entreprises de télécommunications réfléchir à la manière de jouer un rôle dans cet espace ? et exploiter leurs propres centres de données avec suffisamment d'espace et de puissance, ce dont les utilisateurs ont vraiment besoin, et les opérateurs télécoms savent comment gérer de grands projets d'infrastructure. Il s'agit d'un type de construction très spécifique qui nécessite cela. Pour vraiment débloquer l'IA générative, vous en avez besoin. avoir des centaines ou des milliers de GPU pour pouvoir s'entraîner sur des modèles d'IA, et cela ne ressemble pas forcément à un déploiement standard, il faut donc les encourager à aller plus loin. C'est une décision que les entreprises de télécommunications doivent prendre. et elles doivent se lancer dans cette aventure. Les entreprises de télécommunications disposent de nombreux avantages, tels que des relations étroites avec les ministères, une bonne coopération avec les entreprises clientes, et elles sont des partenaires de confiance dans leur propre pays. vague technologique ?"Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

La communauté ouverte LLM est une époque où une centaine de fleurs fleurissent et s'affrontent. Vous pouvez voir Llama-3-70B-Instruct, QWen2-72B-Instruct, Nemotron-4-340B-Instruct, Mixtral-8x22BInstruct-v0.1 et bien d'autres. excellents interprètes. Cependant, par rapport aux grands modèles propriétaires représentés par le GPT-4-Turbo, les modèles ouverts présentent encore des lacunes importantes dans de nombreux domaines. En plus des modèles généraux, certains modèles ouverts spécialisés dans des domaines clés ont été développés, tels que DeepSeek-Coder-V2 pour la programmation et les mathématiques, et InternVL pour les tâches de langage visuel.

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

L’essor des petits modèles. Le mois dernier, Meta a publié la série de modèles Llama3.1, qui comprend le plus grand modèle Meta à ce jour, le modèle 405B, et deux modèles plus petits avec respectivement 70 milliards et 8 milliards de paramètres. Llama3.1 est considéré comme inaugurant une nouvelle ère de l'open source. Cependant, bien que les modèles de nouvelle génération soient puissants en termes de performances, ils nécessitent néanmoins une grande quantité de ressources informatiques lors de leur déploiement. Par conséquent, une autre tendance est apparue dans l’industrie, qui consiste à développer des petits modèles de langage (SLM) qui fonctionnent suffisamment bien dans de nombreuses tâches linguistiques et sont également très peu coûteux à déployer. Récemment, des recherches de NVIDIA ont montré qu'un élagage structuré combiné à une distillation des connaissances permet d'obtenir progressivement des modèles de langage plus petits à partir d'un modèle initialement plus grand. Lauréat du prix Turing, Meta Chief A

Selon les informations de ce site du 15 juin, Asus a récemment lancé la carte graphique GeForce RTX40 "Ada" de la série Prime. Sa taille est conforme à la dernière spécification SFF-Ready de Nvidia, qui exige que la taille de la carte graphique ne dépasse pas 304. mm x 151 mm x 50 mm (longueur x hauteur x épaisseur). La série Prime GeForceRTX40 lancée par ASUS comprend cette fois RTX4060Ti, RTX4070 et RTX4070SUPER, mais elle n'inclut actuellement pas RTX4070TiSUPER ou RTX4080SUPER. Cette série de cartes graphiques RTX40 adopte une conception de circuit imprimé commune avec des dimensions de 269 mm x 120 mm x 50 mm. Les principales différences entre les trois cartes graphiques sont.

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S
