localisation actuelle:Maison > Articles techniques > Périphériques technologiques > IA
- Direction:
- tous web3.0 développement back-end interface Web base de données Opération et maintenance outils de développement cadre php programmation quotidienne Applet WeChat Problème commun autre technologie Tutoriel CMS Java Tutoriel système tutoriels informatiques Tutoriel matériel Tutoriel mobile Tutoriel logiciel Tutoriel de jeu mobile
- Classer:
-
- 30 fois plus efficace que les méthodes traditionnelles, le modèle d'apprentissage profond Transformer de l'équipe de l'Académie chinoise des sciences prédit les sites d'interaction sucre-protéine
- Les sucres sont les substances organiques les plus abondantes dans la nature et sont essentiels à la vie. Comprendre comment les glucides régulent les protéines au cours des processus physiologiques et pathologiques peut offrir la possibilité de répondre à des questions biologiques clés et de développer de nouveaux traitements. Cependant, la diversité et la complexité des molécules de sucre posent un défi pour identifier expérimentalement les sites de liaison et d’interaction sucre-protéine. Ici, une équipe de l'Académie chinoise des sciences a développé DeepGlycanSite, un modèle d'apprentissage profond capable de prédire avec précision les sites de liaison du sucre sur une structure protéique donnée. DeepGlycanSite intègre les caractéristiques géométriques et évolutives des protéines dans un réseau neuronal à graphes équivariants profonds avec une architecture Transformer. Ses performances dépassent considérablement les méthodes avancées précédentes et peuvent prédire efficacement.
- IA 957 2024-07-01 15:17:50
-
- Plus de 300 études connexes, les derniers articles de synthèse sur l'édition d'images multimodales de l'Université de Fudan et de l'Université technologique de Nanyang
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Shuai Xincheng, le premier auteur de cet article, étudie actuellement pour un doctorat au laboratoire FVL de l'université de Fudan et est diplômé de l'université Jiao Tong de Shanghai avec un baccalauréat. Ses principaux intérêts de recherche incluent le montage d’images et de vidéos et l’apprentissage multimodal. Introduction Cet article propose une approche unifiée pour résoudre les tâches d'édition générales.
- IA 512 2024-06-29 06:14:41
-
- Avec une précision de 0,96, un réseau neuronal graphique de contraintes physiques et chimiques est utilisé pour prédire les interactions protéine-ligand à partir de séquences.
- Editeur | Radis Skin Dans le développement de médicaments, il est crucial de déterminer l'affinité de liaison et l'effet fonctionnel des ligands de petites molécules sur les protéines. Les méthodes informatiques actuelles peuvent prédire ces propriétés d’interaction protéine-ligand, mais sans structures protéiques à haute résolution, la précision est souvent perdue et les effets fonctionnels ne peuvent être prédits. Des chercheurs de l’Université Monash et de l’Université Griffith ont développé PSICHIC (PhySIcoCHhemICalgraphneuralnetwork), un cadre qui combine des contraintes physicochimiques pour décoder les empreintes digitales d’interaction directement à partir des données de séquence. Cela permet à PSICHIC de décoder les mécanismes à l’origine des interactions protéine-ligand, atteignant ainsi une précision et une interprétabilité de pointe. En l'absence de données structurées
- IA 636 2024-06-29 05:16:50
-
- Le « travail sincère » de Google, versions open source 9B et 27B de Gemma2, axées sur l'efficacité et l'économie !
- Comment Gemma2, qui a deux fois plus de performances, peut-il jouer avec Llama3, qui a le même niveau de performances ? Sur la piste de l’IA, les géants de la technologie se livrent une concurrence féroce. GPT-4o est sorti sur le pied avant et Claude3.5Sonnet est apparu sur le pied arrière. Dans une bataille aussi féroce, bien que Google ait lancé ses efforts tardivement, il a une capacité significative à donner suite dans un court laps de temps, ce qui montre son potentiel de développement technologique et d'innovation. En plus du modèle Gemini, Gemma, une série de modèles ouverts SOTA légers, semble plus proche de nous. Il s’appuie sur les mêmes recherches et technologies que le modèle Gemini et vise à donner à chacun les outils nécessaires pour construire l’IA. Google continue d'élargir la famille Gemma, notamment CodeGemma, RecurrentGemma et P
- IA 1011 2024-06-29 00:59:21
-
- ICML 2024 | Révéler le mécanisme de l'apprentissage non linéaire des transformateurs et de la généralisation dans l'apprentissage contextuel
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com L'auteur de cet article, Li Hongkang, est doctorant au Département de génie électrique, informatique et des systèmes de l'Institut polytechnique Rensselaer aux États-Unis. Université des sciences et technologies de Chine avec un baccalauréat. Les domaines de recherche incluent la théorie de l'apprentissage profond, la théorie des grands modèles de langage, l'apprentissage automatique statistique, etc. Actuellement en ICLR/
- IA 428 2024-06-29 00:44:41
-
- A vaincu Gemini-1.5-Pro et GPT-4V, se classant parmi les trois premiers au monde en termes de capacités multimodales de grands modèles
- Récemment, le grand modèle de Yuncong Technology a fait des progrès significatifs dans le domaine de l'évaluation multimodale d'OpenCompass, la plateforme d'évaluation complète faisant autorité. Les derniers résultats d'évaluation montrent que le score moyen du grand modèle Congrong de Yuncong Technology dans ce système est de 65,5. Ce résultat place le grand modèle Congrong parmi les trois premiers au monde, dépassant le classement Gemini-1.5-Pro et GPT-4v de Google. deuxième Sur GPT-4o (69,9) et Claude3.5-Sonnet (67,9). Sur le marché intérieur, les performances du grand modèle ont également dépassé InternVL-Chat (61,7) et GLM-4V (60,8), se classant au premier rang. 1.Liste multimodale OpenCompass OpenCom
- IA 964 2024-06-29 00:25:01
-
- L'équipe Bengio propose un nouveau benchmark multimodal, ciblant les faiblesses de Claude 3.5 et GPT-4o
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com L'auteur de cet article, Zhang Tianyu, a étudié à l'Institut Mila d'intelligence artificielle au Canada et a étudié auprès du professeur Yoshua Bengio, lauréat du prix Turing. Les principaux travaux de la période doctorale ont porté sur la multimodalité, GFlowNet, l'apprentissage par renforcement multi-agents, l'IA et le changement climatique
- IA 782 2024-06-29 00:06:53
-
- Le modèle Depth Anything V2 de l'équipe de modèles Byte a été sélectionné comme dernier modèle CoreML d'Apple.
- Récemment, Apple a publié 20 nouveaux modèles CoreML et 4 ensembles de données sur HuggingFace, et le modèle d'estimation de profondeur monoculaire DepthAnythingV2 de l'équipe Byte Model a été sélectionné parmi eux. Le framework d'apprentissage automatique CoreML Apple est utilisé pour intégrer des modèles d'apprentissage automatique dans des appareils tels que iOS et MacOS afin de fonctionner efficacement. Effectuez des tâches d'IA complexes sans avoir besoin d'une connexion Internet, améliorez la confidentialité des utilisateurs et réduisez la latence. Les développeurs Apple peuvent utiliser ces modèles pour créer des applications d'IA intelligentes et sûres. Un modèle d'estimation de profondeur monoculaire développé par l'équipe de modèles de grande taille d'octets DepthAnythingV2. La version V2 offre un traitement des détails plus fin, une plus grande robustesse et une vitesse considérablement améliorée. Contient 25M à
- IA 366 2024-06-28 22:40:06
-
- Convertissez automatiquement les images en texte et les descriptions des images sont de meilleure qualité et plus précises.
- La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Pi Renjie : doctorant de troisième année à l'Université des sciences et technologies de Hong Kong, étudiant sous la direction du professeur Zhang Tong et du professeur Zhou Xiaofang. A reçu une bourse Apple en 2024. Les principales orientations de recherche actuelles sont les grands modèles de langage multimodaux et l’IA centrée sur les données. Zhang Jianshu : étudiant de troisième année à l'Université de Wuhan,
- IA 884 2024-06-28 21:41:35
-
- La naissance de Cambrian No. 1 : l'équipe Xie Saining et Yann LeCun a publié le LLM multimodal open source le plus puissant
- Tout comme les animaux ont des yeux, Cambrian-1 de l'équipe de Yann LeCun permet à l'IA d'acquérir de puissantes capacités d'apprentissage des représentations visuelles. À travers les âges, de nombreux philosophes ont exploré cette question : la compréhension du sens du langage doit-elle être basée sur les sens ? Même si les philosophes ne sont pas d’accord, une chose est claire : une base sensorielle solide et efficace peut au moins aider. Par exemple, les scientifiques pensent généralement que l’émergence de la vision lors de l’explosion cambrienne a été une étape clé dans l’évolution des premiers animaux ; elle a non seulement aidé les animaux à mieux trouver de la nourriture et à éviter les prédateurs, mais a également contribué à l’évolution des animaux eux-mêmes. En fait, la plupart des connaissances que possèdent les humains (et presque tous les animaux) sont acquises grâce à des expériences sensorielles en interaction avec le corps physique.
- IA 1073 2024-06-28 21:28:07
-
- Les grands modèles domestiques atteignent de nouveaux sommets ! Sortie d'iFlytek Spark 4.0 : surpassant globalement GPT-4 Turbo, se classant premier dans 8 ensembles de tests internationaux faisant autorité
- Les capacités des grands modèles nationaux ont atteint un nouveau niveau ! Le 27 juin, iFlytek a officiellement lancé le modèle iFlytek Spark V4.0, ainsi que des applications d'intelligence artificielle dans de nombreux domaines tels que les soins médicaux, l'éducation et les affaires. Avec la sortie de la nouvelle version, les sept capacités principales d'iFlytek Spark V4.0 ont été entièrement mises à niveau, se classant au premier rang dans 8 ensembles de tests grand public internationaux, dépassant globalement le GPT-4Turbo et leader des grands modèles nationaux. Liu Qingfeng a déclaré qu'actuellement, le nombre de téléchargements de Spark APP a atteint 131 millions et qu'un certain nombre d'assistants d'application préférés des utilisateurs ont vu le jour. Avec la prise en charge du modèle Spark, les ventes de matériel intelligent dans certains scénarios ont augmenté de plus de 70 % d'une année sur l'autre, avec une utilisation mensuelle moyenne dépassant 40 millions. De plus, le grand modèle Xinghuo V4.0 est basé sur le premier Wanka domestique du pays.
- IA 1024 2024-06-28 20:52:47
-
- La première technologie de génération vidéo IA en temps réel de l'histoire : DiT universal, 10,6 fois plus rapide
- DiT peut être utilisé pour générer des vidéos sans perte de qualité et sans formation requise. La génération vidéo IA en temps réel est là ! Mercredi, l'équipe You Yang de l'Université nationale de Singapour a proposé la première méthode de génération vidéo basée sur DiT du secteur pouvant être diffusée en temps réel. La technologie s'appelle PyramidAttentionBroadcast (PAB). En réduisant les calculs d'attention redondants, PAB atteint des fréquences d'images allant jusqu'à 21,6 FPS et une accélération de 10,6x sans sacrifier les avantages des modèles de génération vidéo populaires basés sur DiT, notamment la qualité Open-Sora, Open-Sora-Plan et Latte. Il convient de noter qu'en tant que méthode ne nécessitant pas de formation, le PAB peut être utilisé pour tout futur projet basé sur DiT.
- IA 1246 2024-06-28 19:14:46
-
- Tsinghua AIR et d'autres ont proposé ESM-AA, le premier modèle de langage protéique allant des acides aminés aux échelles atomiques
- Des équipes de recherche de l’Université Tsinghua AIR, de l’Université de Pékin et de l’Université de Nanjing ont proposé le modèle ESM-AA. Ce modèle a réalisé des progrès importants dans le domaine de la modélisation du langage protéique, fournissant une solution de modélisation unifiée intégrant des informations multi-échelles. Il s’agit du premier modèle de langage protéique pré-entraîné capable de gérer à la fois les informations sur les acides aminés et les informations atomiques. Les excellentes performances du modèle démontrent le grand potentiel de la modélisation unifiée multi-échelle pour surmonter les limitations existantes et débloquer de nouvelles capacités. En tant que modèle de base, ESM-AA a reçu l'attention et des discussions approfondies de la part de nombreux chercheurs (voir capture d'écran ci-dessous). Il est considéré comme ayant le potentiel de développer des modèles basés sur ESM-AA qui peuvent rivaliser avec AlphaFold3 et RoseTTAFoldAll-Atom et fournir des fonctionnalités. une plateforme pour étudier différentes phases d'organismes entre les structures.
- IA 1121 2024-06-28 18:10:06
-
- Efficace et précise, l'équipe de l'Université de Zhengzhou développe un nouvel outil d'IA pour identifier les interactions médicament-cible
- Editeur | Dry Leaf Butterfly L'identification précise des interactions médicament-cible (DTI) est l'une des étapes clés du processus de découverte et de repositionnement de médicaments. Actuellement, de nombreux modèles informatiques ont été proposés pour prédire le DTI, et des progrès significatifs ont été réalisés. Cependant, ces méthodes se concentrent rarement sur la façon de fusionner de manière appropriée des réseaux de similarité multi-vues liés aux médicaments et aux cibles. De plus, la manière d’intégrer pleinement les relations d’interaction connues pour représenter avec précision les médicaments et les cibles n’a pas été bien étudiée. Par conséquent, il est encore nécessaire d’améliorer la précision des modèles de prédiction DTI. Dans les dernières recherches, des équipes de l’Université de Zhengzhou et de l’Université des sciences et technologies électroniques de Chine ont proposé une nouvelle méthode, MIDTI. Cette méthode utilise une stratégie de fusion de réseaux de similarité multi-vues et un mécanisme d’attention interactif profond pour prédire les médicaments.
- IA 1139 2024-06-28 02:31:25
-
- Spécialement adapté à cinq domaines scientifiques majeurs, la NASA et IBM coopèrent pour développer un grand modèle de langage INDUS
- INDUS, du nom de la constellation australe, est un ensemble complet de modèles linguistiques à grande échelle prenant en charge cinq domaines scientifiques. (Source : NASA) Éditeur | Les grands modèles de langage (LLM) de KX formés sur de grandes quantités de données fonctionnent bien sur les tâches de compréhension et de génération du langage naturel. Les LLM les plus populaires sont formés à l'aide de corpus généraux tels que Wikipédia, mais les changements de répartition du vocabulaire conduisent à de mauvaises performances dans des domaines spécifiques. Inspirée par cela, la NASA a collaboré avec IBM pour développer INDUS, un ensemble complet de LLM adaptés aux domaines des sciences de la Terre, de la biologie, de la physique, de l'héliophysique, des sciences planétaires et de l'astrophysique et utilisant des données provenant de différentes sources de données. pour s'entraîner. INDUS contient deux types de modèles : encodeur et phrase
- IA 817 2024-06-27 20:28:32