localisation actuelle:Maison > Articles techniques > Périphériques technologiques > IA
- Direction:
- tous web3.0 développement back-end interface Web base de données Opération et maintenance outils de développement cadre php programmation quotidienne Applet WeChat Problème commun autre technologie Tutoriel CMS Java Tutoriel système tutoriels informatiques Tutoriel matériel Tutoriel mobile Tutoriel logiciel Tutoriel de jeu mobile
- Classer:
-
- Bon sang, je suis entouré de collègues du numérique ! Les employés numériques de Xiaobing AI sont à nouveau mis à niveau, avec une personnalisation sans échantillon et un emploi immédiat
- "Bonjour, je viens de rejoindre notre entreprise. Si j'ai des questions sur le business, donnez-moi vos conseils !" Quoi, ces collègues sont tous des "gens du numérique" animés par de grands modèles ? Il suffit de 30 secondes d'image, 10 secondes d'audio et 10 minutes pour personnaliser rapidement un « collègue numérique » qui n'est pas différent d'une personne réelle. Il peut interagir directement avec vous en temps réel et offre une transmission audio et vidéo de haute qualité et à faible latence au niveau de l'opérateur de communication. Comme ceci : Comme ceci : Il s'agit de la dernière technologie « Zero-shot Xiaoice Neural Rendering, Zero-XNR » lancée par Xiaoice. S'appuyant sur une large base de modèles de plus de 100 milliards, une nouvelle technologie.
- IA 357 2024-07-19 17:52:22
-
- Huawei GTS LocMoE+ : architecture MoE à haute évolutivité et affinité, faible surcharge pour obtenir un routage actif
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les co-auteurs de cet article sont le Dr Li Jing, Sun Zhijie et le Dr Lin Dachao. Les principaux membres sont du laboratoire informatique GTSAI. incluent l'accélération de la formation LLM, la garantie de formation IA et le calcul de graphiques. Le MoE se caractérise par son faible coût et sa grande efficacité dans le processus de formation et de promotion.
- IA 957 2024-07-19 17:31:50
-
- LLama+Mistral+…+Yi=? Le cadre d'apprentissage intégré à grand modèle hétérogène sans formation DeepEN est là
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com L'auteur principal de cet article est Huang Yichong. Huang Yichong est doctorant au Centre de recherche en informatique sociale et en recherche d'informations de l'Institut de technologie de Harbin et stagiaire au Laboratoire de Pengcheng, où il étudie sous la direction du professeur Qin Bing et du professeur Feng Xiaocheng. Les axes de recherche incluent l'apprentissage d'ensemble de grands modèles linguistiques, les grands modèles multilingues, la théorie des corrélations.
- IA 1188 2024-07-19 17:10:50
-
- Une nouvelle méthode basée sur un transformateur prédit avec précision la méthylation de l'ADN à partir du séquençage des nanopores
- La méthylation de l'ADN de la peau de radis joue un rôle important dans divers processus biologiques, notamment la différenciation cellulaire, le vieillissement et le développement du cancer. La méthylation la plus importante chez les mammifères est la 5-méthylcytosine, qui se produit principalement dans le contexte des dinucléotides CpG. Les méthodes de séquençage telles que le séquençage au bisulfite du génome entier peuvent détecter avec succès les modifications de l’ADN de la 5-méthylcytosine. Cependant, ils souffrent du sérieux inconvénient de courtes longueurs de lecture, qui peuvent introduire un biais d’amplification. Des chercheurs d'A*STAR à Singapour ont développé Rockfish, un algorithme d'apprentissage profond qui améliore considérablement les capacités de détection de la 5-méthylcytosine au niveau de lecture en utilisant le séquençage des nanopores (Oxford Nanopore Sequencing, ONT). L'étude est intitulée "Rockfis
- IA 621 2024-07-19 14:55:29
-
- Les étoiles GitHub dépassent les 160 000, et la version avancée populaire d'AutoGPT est là : nœuds personnalisés, collaboration multi-agents
- Bien entendu, la prochaine génération d’AutoGPT est toujours open source. Vous souvenez-vous encore du projet « AutoGPT » que le gourou de l’IA Andrej Karpathy a vigoureusement promu l’année dernière ? Il s'agit d'une application open source expérimentale alimentée par GPT-4 qui peut atteindre de manière autonome n'importe quel objectif fixé par l'utilisateur, démontrant la tendance de développement de l'IA autonome. En plus d'un an, le nombre total d'étoiles GitHub pour ce projet a dépassé les 160 000, ce qui montre sa popularité continue. Adresse GitHub : https://github.com/Significant-Gravitas/AutoGPT Hier, l'auteur du projet a annoncé l'arrivée de la prochaine génération « AutoGPT » sur le réseau social X, qui est actuellement pré-
- IA 391 2024-07-19 14:36:17
-
- J'ai publié arXiv il y a six mois, mais j'ai été accusé de plagiat : CAMEL vit dans l'ombre de Microsoft AutoGen
- arXiv n'est pas une revue à comité de lecture, il n'est donc pas nécessaire de citer les articles publiés sur arXiv. Est-ce raisonnable ? Si vous êtes intéressé par les agents IA, vous devez connaître AutoGen de Microsoft. Il s'agit d'un cadre de programmation open source pour la création d'agents IA qui permet à plusieurs agents de résoudre des tâches via le chat. Parallèlement, l'agent LLM peut jouer divers rôles, tels que programmeur, concepteur ou une combinaison de différents rôles. Sur GitHub, ce projet a reçu 28 000 étoiles et l'article a également remporté le prix du meilleur article lors de l'ICLR2024LLMAgentWorkshop. Cependant, il existe une controverse derrière cet article. En novembre 2023, un chercheur en IA (Abdullah Gu
- IA 915 2024-07-19 14:28:48
-
- L'équipe de Jia Jiaya s'est associée à l'Université Cambridge Tsinghua et à d'autres pour promouvoir un nouveau paradigme d'évaluation permettant de détecter « des scores élevés et une faible énergie » dans de grands modèles en une seconde
- Subvertissant les précédentes normes d'évaluation des grands modèles, l'ensemble de données d'évaluation le plus récent, le plus complet et faisant autorité, MR-Ben, est là ! Il s'agit d'un travail très représentatif proposé à nouveau par l'équipe chinoise de Hong Kong Jiajiaya après la sortie de Mini-Gemini, un modèle de langage super visuel appelé GPT-4+DALL-E-3, en avril de cette année. Sous la « supervision » de MR-Ben, le grand modèle doit non seulement répondre aux questions comme un étudiant, mais aussi noter les devoirs comme un enseignant, et sa véritable capacité de raisonnement sera révélée. MR-Ben a soigneusement évalué de nombreux modèles open source et fermés de première ligne nationaux et étrangers, tels que GPT4-Turbo, Cluade3.5-Sonnet, Mistral-Large, Zhipu-GLM4,
- IA 456 2024-07-19 13:55:25
-
- ACL 2024 | Dans l'évaluation mathématique de 25 modèles open source et fermés, GPT-3.5-Turbo a à peine réussi
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article sont issus de l'Université de Hong Kong et de Tencent. Liste des auteurs : Li Qintong, LeyangCui, Zhao Xueliang, Kong Lingpeng, WeiBi. Parmi eux, le premier auteur Li Qintong est doctorant au Laboratoire de traitement du langage naturel de l'Université de Hong Kong. Son axe de recherche concerne la génération de langage naturel.
- IA 1024 2024-07-19 13:53:41
-
- Accélération sans perte jusqu'à 5x, EAGLE-2 permet au RTX 3060 de générer plus rapidement que l'A100
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Li Yuhui : Master de l'École d'intelligence, Université de Pékin. Sous la direction des professeurs Zhang Hongyang et Zhang Chao, son orientation de recherche est l'accélération et l'alignement de grands modèles. pour des opportunités d'emploi en 25e année Wei Fangyun : chercheur Microsoft à l'Asian Research Institute, avec des intérêts de recherche dans l'intelligence incarnée, la génération d'images et l'IAagen.
- IA 550 2024-07-19 13:12:48
-
- Le premier cadre de raisonnement vidéo de pensée est ici : Raisonnement vidéo complet de la perception à la cognition comme un être humain
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article sont issus de l'Université nationale de Singapour, de l'Université technologique de Nanyang et de l'Institut de technologie de Harbin. Parmi eux, les domaines de recherche de Fei Hao sont l’apprentissage multimodal et les grands modèles de langage multimodaux. Wu Shengqiong est doctorante à l'Université nationale de Singapour. Son principal domaine de recherche concerne les grands modèles de langage multimodaux. Seigneur de Ji Wei
- IA 435 2024-07-19 13:12:42
-
- Les dernières nouvelles! Baidu Wenxin Big Model 4.0 : Le plus grand modèle paramétrique de l'histoire de la formation Wanka, rendez-vous dès la semaine prochaine
- Hier, Cailian News a révélé en exclusivité que le Wenxin Model 4.0 de Baidu intensifie sa formation et est sur le point d'être prêt à être publié. Tout le monde a toujours été curieux de connaître les informations de Wen Xinyiyan. Aujourd'hui, nous avons également reçu plus de nouvelles sur Wenxin 4.0, qui implique des informations clés telles que l'architecture sous-jacente, l'infrastructure, les ensembles de données de formation, les coûts, etc. Il a un très haut degré de crédibilité ! Parlons d’abord des principales conclusions : 1. Les révélations d’hier sont fondamentalement vraies. Il est actuellement entendu que Wenxin Large Model 4.0 a en fait été testé avec un faible trafic. 2. Le nombre de paramètres de Wenxin 4.0 est supérieur à celui de tous les LLM dont les paramètres sont rendus publics. Il s'agit également du premier grand modèle en Chine à être formé à l'aide du cluster Wanka. 3. Le coût de raisonnement est bien supérieur à celui de Wenxin 3.5, on dit qu'il est environ 8 à 10 fois ! (Les grands modèles coûtent vraiment cher !) Si
- IA 998 2024-07-19 12:04:49
-
- Qui est le plus grand, 9.11 ou 9.9 ? Nous avons effectivement testé 15 grands modèles, et plus de la moitié d'entre eux se sont renversés.
- Editeur du Machine Power Report : Yang Wen Les grands modèles ne peuvent toujours pas résoudre de simples problèmes mathématiques. Ces derniers jours, une invitation à tester si le « cerveau » du grand modèle fonctionne est devenue populaire : lequel est le plus grand, 9.11 ou 9.9 ? Ce problème de mathématiques, auquel même les élèves du primaire peuvent répondre correctement, déconcerte un groupe de « héros » de l'industrie du modélisme à grande échelle. Voici le truc. Riley Goodside, ingénieur principal des invites de ScaleAI, a demandé à GPT-4o le mot d'invite « 9.11 et 9.9 – lequel est le plus grand ? », mais a obtenu la réponse « le premier est plus grand ». D'autres grands modèles se sont également renversés. Le 17 juillet, nous avons pris 12 grands modèles nationaux, plus le GPT-4o étranger
- IA 1193 2024-07-19 11:27:21
-
- Mistral AI deux versions consécutives : 7B dédié au raisonnement mathématique, code d'architecture Mamba2 grand modèle
- Les internautes sont curieux de savoir si Mathstral peut résoudre le problème de « qui est le plus grand, 9.11 ou 9.9 ? » Hier, le cercle de l'IA a été submergé par une simple question du type « Qui est le plus grand, 9.11 ou 9.9 ? » Les grands modèles de langage, dont OpenAIGPT-4o, Google Gemini, etc., ont tous été renversés. Cela nous permet de voir que les grands modèles de langage ne peuvent pas comprendre et donner des réponses correctes comme les humains lorsqu'ils traitent certains problèmes numériques. Pour les problèmes mathématiques numériques et complexes, les modèles spécialisés sont plus spécialisés. Aujourd'hui, la licorne française grand modèle MistralAI a publié un grand modèle 7B « Mathstral » axé sur le raisonnement mathématique et la découverte scientifique pour résoudre des données avancées qui nécessitent un raisonnement logique complexe en plusieurs étapes.
- IA 329 2024-07-19 09:54:11
-
- Réduction des coûts de plus de 90 %, « apprentissage actif + flux de travail expérimental » accélère le développement de catalyseurs
- Editeur | Green Luo La synthèse d'alcools supérieurs (HAS) par hydrogénation thermique catalytique du gaz de synthèse reste une technologie prometteuse. Les exigences en matière de croissance de chaîne et d’insertion de CO nécessitent des matériaux à plusieurs composants dont la cinétique de réaction complexe et le vaste espace chimique ne répondent pas aux spécifications de conception du catalyseur. Ici, des chercheurs de l'ETH Zurich proposent une stratégie alternative pour intégrer l'apprentissage actif dans le flux de travail expérimental, en utilisant la série de catalyseurs FeCoCuZr comme exemple. Le cadre assisté par données proposé simplifie la navigation dans un large espace de compositions et de conditions de réaction à travers 86 expériences, réduisant ainsi l'empreinte environnementale et les coûts de plus de 90 % par rapport aux procédures traditionnelles. Il identifie le catalyseur Fe65Co19Cu5Zr11 avec des conditions de réaction optimisées qui fonctionnent de manière stable
- IA 969 2024-07-19 09:49:21
-
- trop cool! Les anciens appareils iPhone, iPad et MacBook forment un cluster hétérogène et peuvent exécuter Llama 3
- Si vous avez du matériel de rechange, vous voudrez peut-être l'essayer. Cette fois, l’équipement matériel que vous avez en main peut également faire travailler ses muscles dans le domaine de l’IA. En combinant iPhone, iPad et Macbook, vous pouvez assembler une « solution d'inférence de cluster hétérogène », puis exécuter le modèle Llama3 en douceur. Il convient de mentionner que ce cluster hétérogène peut être un système Windows, Linux ou iOS, et que la prise en charge d'Android sera bientôt disponible. Un cluster hétérogène est en cours d'exécution. Selon l'auteur du projet @evilsocket, ce cluster hétérogène comprend iPhone15ProMax, iPadPro, MacBookPro (M1Max), NVIDIA GeFor
- IA 1003 2024-07-19 05:09:59