Le premier lot de grands modèles d'IA est ouvert au public
Tôt hier matin, Baidu et Baichuan Intelligence ont annoncé successivement que les grands modèles d'intelligence artificielle Wenxinyiyan et Baichuan étaient ouverts au public. Ils sont également les premiers grands modèles linguistiques de mon pays à ouvrir leurs services au public par inscription.
Carte d'information, capture d'écran de la page Web
Hier à minuit, Wen Xin Yi Yan a annoncé qu'il serait le premier à être entièrement ouvert à l'ensemble de la société. Les utilisateurs peuvent télécharger l'application « Wen Xin Yi Yan » dans l'App Store ou se connecter à « Wen Xin ». Site officiel de Yi Yan" pour en faire l'expérience. Il est rapporté que Baidu ouvrira également un lot d'applications natives d'IA nouvellement reconstruites, permettant aux utilisateurs de profiter pleinement des quatre capacités principales de l'IA générative : compréhension, génération, logique et mémoire
Hier aux premières heures, Baichuan Intelligence a annoncé que son grand modèle avait été enregistré et adopté les « Mesures provisoires pour la gestion des services d'intelligence artificielle générative ». Baichuan Intelligence a été fondée par l'ancien PDG de Sogou, Wang Xiaochuan, le 10 avril de cette année. L'équipe principale est composée des meilleurs talents issus d'entreprises technologiques bien connues telles que Sogou, Baidu, Huawei, Microsoft, ByteDance et Tencent. Seulement 4 mois après sa création, Baichuan Intelligent a publié trois grands modèles de langage à usage général, dont Baichuan-7B, le premier grand modèle de langage open source du pays avec 7 milliards de paramètres pouvant être utilisés à des fins commerciales gratuites, et Baichuan, un grand modèle de langage. modèle de langage avec 53 milliards de paramètres -53B
.Dans le premier lot de listes d'inscription pour les « Mesures provisoires pour la gestion des services d'intelligence artificielle générative », en plus de Baidu et Baichuan Intelligence, de grands modèles d'entreprises et d'institutions telles que ByteDance, SenseTime, Zidong Taichu, Zhipu Huazhang, etc. également été inclus En y incluant, les services peuvent être officiellement fournis au public
Le premier lot de grands modèles d'IA est désormais ouvert au public
Éditeur de processus : u027
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Récemment, la « Conférence sur l'informatique intelligente de la nouvelle zone de Lingang » a eu lieu sur le thème « L'IA mène l'ère, la puissance de calcul conduit l'avenir ». Lors de la réunion, la New Area Intelligent Computing Industry Alliance a été officiellement créée. SenseTime est devenu membre de l'alliance en tant que fournisseur de puissance de calcul. Dans le même temps, SenseTime a reçu le titre d'entreprise de « New Area Intelligent Computing Industry Chain Master ». En tant que participant actif à l'écosystème de puissance de calcul de Lingang, SenseTime a actuellement construit l'une des plus grandes plates-formes informatiques intelligentes d'Asie : SenseTime AIDC, qui peut produire une puissance de calcul totale de 5 000 pétaflops et prendre en charge 20 modèles ultra-larges avec des centaines de milliards de paramètres. Entraînez-vous en même temps. SenseCore, un appareil à grande échelle construit avec AIDC comme base et tourné vers l'avenir, s'engage à créer une infrastructure et des services d'IA de nouvelle génération à haute efficacité, à faible coût et à grande échelle pour renforcer l'intelligence artificielle.

IT House a rapporté le 13 octobre que "Joule", une revue sœur de "Cell", a publié cette semaine un article intitulé "L'empreinte énergétique croissante de l'intelligence artificielle (L'empreinte énergétique croissante de l'intelligence artificielle)". Grâce à des enquêtes, nous avons appris que cet article avait été publié par Alex DeVries, fondateur de l'institution de recherche scientifique Digiconomist. Il a affirmé que les performances de raisonnement de l'intelligence artificielle à l'avenir pourraient consommer beaucoup d'électricité. On estime que d'ici 2027, la consommation électrique de l'intelligence artificielle pourrait être équivalente à la consommation électrique des Pays-Bas pendant un an. le monde extérieur a toujours pensé que la formation d'un modèle d'IA est « la chose la plus importante en IA ».

Driving China News le 28 juin 2023, aujourd'hui, lors du Mobile World Congress à Shanghai, China Unicom a publié le modèle graphique « Honghu Graphic Model 1.0 ». China Unicom a déclaré que le modèle graphique Honghu est le premier grand modèle pour les services à valeur ajoutée des opérateurs. Le journaliste de China Business News a appris que le modèle graphique de Honghu dispose actuellement de deux versions de 800 millions de paramètres de formation et de 2 milliards de paramètres de formation, qui peuvent réaliser des fonctions telles que des images basées sur du texte, le montage vidéo et des images basées sur des images. En outre, le président de China Unicom, Liu Liehong, a également déclaré dans son discours d'ouverture d'aujourd'hui que l'IA générative inaugure une singularité de développement et que 50 % des emplois seront profondément affectés par l'intelligence artificielle au cours des deux prochaines années.

Je crois que les amis qui suivent le cercle de la téléphonie mobile ne seront pas étrangers à l'expression « obtenez un score si vous ne l'acceptez pas ». Par exemple, les logiciels de tests de performances théoriques tels qu'AnTuTu et GeekBench ont beaucoup attiré l'attention des joueurs car ils peuvent refléter dans une certaine mesure les performances des téléphones mobiles. De même, il existe des logiciels d'analyse comparative correspondants pour les processeurs PC et les cartes graphiques afin de mesurer leurs performances. Puisque « tout peut être comparé », les grands modèles d'IA les plus populaires ont également commencé à participer à des concours d'analyse comparative, notamment dans les « Cent modèles » d'après. La "guerre" a commencé, des avancées ont été réalisées presque tous les jours et chaque entreprise a affirmé être "numéro un en termes de scores". Les grands modèles d'IA nationaux n'ont presque jamais pris de retard en termes de scores de performances, mais ils n'ont jamais été en mesure de surpasser GP en termes de performances. termes d’expérience utilisateur.

Le modèle Transformer est issu de l'article « Attentionisallyouneed » publié par l'équipe de Google en 2017. Cet article proposait pour la première fois le concept d'utiliser Attention pour remplacer la structure cyclique du modèle Seq2Seq, ce qui a eu un grand impact dans le domaine de la PNL. Et avec les progrès continus de la recherche ces dernières années, les technologies liées à Transformer sont progressivement passées du traitement du langage naturel à d’autres domaines. Jusqu'à présent, les modèles de la série Transformer sont devenus des modèles courants dans les domaines de la PNL, du CV, de l'ASR et d'autres domaines. Par conséquent, la manière de former et de déduire des modèles de transformateur plus rapidement est devenue une direction de recherche importante dans l'industrie. Les techniques de quantification de faible précision peuvent

IT House a rapporté le 3 novembre que le site officiel de l'Institut de physique de l'Académie chinoise des sciences a récemment publié un article sur le groupe SF10 de l'Institut de physique de l'Académie chinoise des sciences/Centre national de recherche sur la physique de la matière condensée de Pékin. et le Centre d'information sur les réseaux informatiques de l'Académie chinoise des sciences ont collaboré pour appliquer de grands modèles d'IA à la science des matériaux. Dans ce domaine, des dizaines de milliers de données sur les voies de synthèse chimique sont transmises au grand modèle de langage LLAMA2-7b, obtenant ainsi un modèle MatChat. , qui peut être utilisé pour prédire les voies de synthèse de matériaux inorganiques. IT House a noté que le modèle peut effectuer un raisonnement logique basé sur la structure interrogée et générer le processus de préparation et la formule correspondants. Il a été déployé en ligne et est ouvert à tous les chercheurs en matériaux, apportant une nouvelle inspiration et de nouvelles idées à la recherche et à l'innovation sur les matériaux. Ce travail concerne les grands modèles de langage dans le domaine de la science segmentée

Le département d'intelligence artificielle de Meta Platforms a récemment déclaré qu'il enseignait aux modèles d'IA comment apprendre à marcher dans le monde physique avec le soutien d'une petite quantité de données d'entraînement, et qu'il avait fait des progrès rapides. Cette recherche peut réduire considérablement le temps nécessaire aux modèles d’IA pour acquérir des capacités de navigation visuelle. Auparavant, pour atteindre de tels objectifs, il fallait utiliser de grands ensembles de données et un « apprentissage par renforcement » répété pour les atteindre. Les chercheurs de Meta AI ont déclaré que cette exploration de la navigation visuelle de l’IA aura un impact significatif sur le monde virtuel. L’idée de base du projet n’est pas compliquée : aider l’IA à naviguer dans l’espace physique comme le font les humains, simplement par l’observation et l’exploration. Le département Meta AI a expliqué : « Par exemple, si nous voulons que des lunettes AR nous guident pour trouver les clés, nous devons

Nvidia a récemment annoncé le lancement d'une nouvelle suite logicielle open source appelée TensorRT-LLM, qui étend les capacités d'optimisation de grands modèles de langage sur les GPU Nvidia et brise les limites des performances d'inférence de l'intelligence artificielle après le déploiement. Les grands modèles de langage d’IA générative sont devenus populaires en raison de leurs capacités impressionnantes. Il élargit les possibilités de l’intelligence artificielle et est largement utilisé dans diverses industries. Les utilisateurs peuvent obtenir des informations en discutant avec des chatbots, résumer des documents volumineux, écrire du code logiciel et découvrir de nouvelles façons de comprendre les informations, a déclaré Ian Buck, vice-président du calcul hyperscale et haute performance chez Nvidia Corporation : « L'inférence de modèles de langage à grande échelle est de plus en plus utilisée. difficile..La complexité du modèle continue d’augmenter, le modèle devient de plus en plus intelligent, et il devient
