


Spécialement adapté à cinq domaines scientifiques majeurs, la NASA et IBM coopèrent pour développer un grand modèle de langage INDUS

Éditeur | KX
Les grands modèles de langage (LLM) formés sur de grandes quantités de données fonctionnent bien sur les tâches de compréhension et de génération du langage naturel. Les LLM les plus populaires sont formés à l'aide de corpus généraux tels que Wikipédia, mais les changements de distribution du vocabulaire entraînent de mauvaises performances dans des domaines spécifiques.
Inspirée par cela, la NASA a collaboré avec IBM pour développer INDUS, un ensemble complet de LLM adaptés et utilisés dans les domaines des sciences de la Terre, de la biologie, de la physique, de l'héliophysique, des sciences planétaires et de l'astrophysique. Entraînez-vous sur des corpus scientifiques sélectionnés à partir de différentes sources de données.
INDUS contient deux types de modèles : encodeur et transformateur de phrase. L'encodeur convertit le texte en langage naturel en un codage numérique que le LLM peut traiter. L'encodeur INDUS est formé sur un corpus de 60 milliards de jetons contenant des données d'astrophysique, de sciences planétaires, de sciences de la Terre, d'héliophysique, de sciences biologiques et physiques.
Une recherche connexe intitulée « INDUS : Modèles linguistiques efficaces et efficients pour les applications scientifiques » a été publiée sur la plateforme de prépublication arXiv.
LLM formé sur un corpus de domaine général fonctionne bien sur les tâches de traitement du langage naturel (PNL). Cependant, des études antérieures ont montré que les LLM formés à l’aide de corpus spécifiques à un domaine sont plus performants sur des tâches spécialisées.
Par exemple, certains chercheurs ont développé des LLM dans plusieurs domaines spécifiques, tels que SCIBERT, BIOBERT, MATBERT, BATTERYBERT et SCHOLARBERT, dans le but d'améliorer la précision des tâches de PNL sur le terrain.
INDUS : Un ensemble complet de LLM
Dans cette étude, les chercheurs se sont concentrés spécifiquement sur des domaines interdisciplinaires tels que la physique, les sciences de la Terre, l'astrophysique, la physique solaire, les sciences planétaires et la biologie.
INDUS est un ensemble de LLM basés sur des encodeurs et axés sur ces domaines d'intérêt, formés avec des corpus soigneusement sélectionnés provenant de diverses sources. Plus de la moitié des 50 000 mots inclus dans INDUS sont propres au domaine scientifique spécifique utilisé pour la formation. Le modèle INDUS Encoder affine le modèle Sentence Transformer sur environ 268 millions de paires de textes, y compris titre/résumé et question/réponse.
Plus précisément :
1. Un tokenizer personnalisé INDUSBPE a été construit à partir d'un corpus scientifique organisé à l'aide d'un algorithme de codage par paire d'octets.
2. LLM pré-entraînés avec plusieurs encodeurs uniquement à l'aide de corpus scientifiques sélectionnés et du tagger INDUSBPE. Nous créons en outre un modèle d'incorporation de phrases en affinant le modèle d'encodeur uniquement avec un objectif d'apprentissage contrastif pour apprendre les incorporations de phrases « universelles ». Des versions plus petites et plus efficaces de ces modèles ont été formées à l’aide de techniques d’extraction de connaissances.
3. Création de trois nouveaux ensembles de données de référence scientifiques, CLIMATE-CHANGE NER (tâche de reconnaissance d'entités), NASA-QA (tâche de réponse aux questions d'extraction) et NASA-IR (tâche de récupération) pour accélérer davantage ce domaine de recherche multidisciplinaire.
4. Grâce à des résultats expérimentaux, nous démontrons les excellentes performances du modèle sur ces tâches de référence ainsi que sur les références spécifiques à un domaine existantes, surpassant les modèles généraux tels que RoBERTa et les encodeurs de domaine scientifique tels que SCIBERT.
Faire mieux que le LLM non spécifique à un domaine
En fournissant à INDUS un vocabulaire spécifique à un domaine, l'équipe de recherche a surpassé le LLM ouvert et non spécifique à un domaine sur les références de tâches biomédicales, les références de réponses aux questions scientifiques et l'entité des sciences de la Terre. les tests de reconnaissance sont meilleurs.
Comparé le modèle INDUS avec les modèles open source de taille similaire RoBERTaBASE, SCIBERT, MINILM et TINYBERT.
Dans la tâche de compréhension du langage naturel, parmi les modèles de base, INDUSBASE surpasse considérablement le modèle général RoBERTa sur les moyennes micro/macro, tout en atteignant également des performances compétitives dans le modèle correspondant spécifique au domaine biologique SCIBERT.
Tableau : résultats de l'évaluation BLURB. (Source : article)

BLURB surpasse considérablement les modèles de référence correspondants sur la tâche NER sur le changement climatique, démontrant l'efficacité de la formation sur de grandes données spécifiques à un domaine.
Tableau : Résultats du benchmark NER sur le changement climatique. (Source : papier)

Dans NASA-QA (tâche de réponse aux questions d'extraction), peaufiner l'ensemble d'entraînement augmenté à l'aide du SQuAD pertinent. Tous les modèles ont été affinés pour 15 époques, et il a été observé qu'INDUSBASE surpassait tous les modèles de taille similaire, tandis qu'INDUSSMALL fonctionnait relativement bien.
Tableau : résultats du benchmark NASA-QA. (Source : Papier)

Dans les tâches de récupération, le modèle INDUS est évalué sur l'ensemble de données NASA-IR et le benchmark BEIR, qui se compose de 12 tâches de récupération couvrant divers domaines.
Comme le montre le tableau ci-dessous, les deux modèles d'intégration de phrases fonctionnent nettement mieux que la ligne de base sur la tâche NASA-IR, tout en conservant de bonnes performances sur plusieurs tâches BEIR.
Tableau : résultats des évaluations NASA-IR et BEIR. (Source : article)

Les chercheurs ont également mesuré le temps de récupération moyen pour chacune des 4 202 requêtes de test sur le problème naturel BEIR défini sur un seul GPU A100. Ce temps inclut le temps de codage de la requête, du corpus et le temps de récupération des documents pertinents. Notamment, INDUS-RETRIEVERSMALL surpasse INDUS-RETRIEVERBASE à la fois sur NASA-IR et BEIR, tout en étant environ 4,6 fois plus rapide.
Le chercheur IBM Bishwaranjan Bhattacharjee a commenté l'approche globale : « Non seulement nous disposons d'un vocabulaire personnalisé, mais nous disposons également d'un vaste corpus professionnel pour former le modèle d'encodeur et d'une bonne stratégie de formation, ce qui conduit à d'excellentes performances. Pour les plus petits, version plus rapide, nous utilisons la recherche d'architecture neuronale pour obtenir l'architecture du modèle et utilisons la distillation des connaissances pour l'entraîner tout en supervisant le modèle plus grand. "
Dr Sylvain Costes, Division des sciences biologiques et physiques (BPS) de la NASA, a discuté. Avantages de l'intégration d'INDUS : « L'intégration d'INDUS à l'interface de programmation d'application (API) de l'Open Science Data Repository (OSDR) nous permet de développer et de piloter des chatbots qui offrent des capacités de recherche plus intuitives pour parcourir des ensembles de données individuels. Nous explorons actuellement des méthodes pour améliorer le système de données de conservation interne de l'OSDR. utiliser INDUS pour augmenter l'efficacité de l'équipe de conservation et réduire la quantité de travail manuel requis chaque jour. -large.html
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds











Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Dans la fabrication moderne, une détection précise des défauts est non seulement la clé pour garantir la qualité des produits, mais également la clé de l’amélioration de l’efficacité de la production. Cependant, les ensembles de données de détection de défauts existants manquent souvent de précision et de richesse sémantique requises pour les applications pratiques, ce qui rend les modèles incapables d'identifier des catégories ou des emplacements de défauts spécifiques. Afin de résoudre ce problème, une équipe de recherche de premier plan composée de l'Université des sciences et technologies de Hong Kong, Guangzhou et de Simou Technology a développé de manière innovante l'ensemble de données « DefectSpectrum », qui fournit une annotation à grande échelle détaillée et sémantiquement riche des défauts industriels. Comme le montre le tableau 1, par rapport à d'autres ensembles de données industrielles, l'ensemble de données « DefectSpectrum » fournit le plus grand nombre d'annotations de défauts (5 438 échantillons de défauts) et la classification de défauts la plus détaillée (125 catégories de défauts).

Editeur | KX À ce jour, les détails structurels et la précision déterminés par cristallographie, des métaux simples aux grandes protéines membranaires, sont inégalés par aucune autre méthode. Cependant, le plus grand défi, appelé problème de phase, reste la récupération des informations de phase à partir d'amplitudes déterminées expérimentalement. Des chercheurs de l'Université de Copenhague au Danemark ont développé une méthode d'apprentissage en profondeur appelée PhAI pour résoudre les problèmes de phase cristalline. Un réseau neuronal d'apprentissage en profondeur formé à l'aide de millions de structures cristallines artificielles et de leurs données de diffraction synthétique correspondantes peut générer des cartes précises de densité électronique. L'étude montre que cette méthode de solution structurelle ab initio basée sur l'apprentissage profond peut résoudre le problème de phase avec une résolution de seulement 2 Angströms, ce qui équivaut à seulement 10 à 20 % des données disponibles à la résolution atomique, alors que le calcul ab initio traditionnel

La communauté ouverte LLM est une époque où une centaine de fleurs fleurissent et s'affrontent. Vous pouvez voir Llama-3-70B-Instruct, QWen2-72B-Instruct, Nemotron-4-340B-Instruct, Mixtral-8x22BInstruct-v0.1 et bien d'autres. excellents interprètes. Cependant, par rapport aux grands modèles propriétaires représentés par le GPT-4-Turbo, les modèles ouverts présentent encore des lacunes importantes dans de nombreux domaines. En plus des modèles généraux, certains modèles ouverts spécialisés dans des domaines clés ont été développés, tels que DeepSeek-Coder-V2 pour la programmation et les mathématiques, et InternVL pour les tâches de langage visuel.

Pour l’IA, l’Olympiade mathématique n’est plus un problème. Jeudi, l'intelligence artificielle de Google DeepMind a réalisé un exploit : utiliser l'IA pour résoudre la vraie question de l'Olympiade mathématique internationale de cette année, l'OMI, et elle n'était qu'à un pas de remporter la médaille d'or. Le concours de l'OMI qui vient de se terminer la semaine dernière comportait six questions portant sur l'algèbre, la combinatoire, la géométrie et la théorie des nombres. Le système d'IA hybride proposé par Google a répondu correctement à quatre questions et a marqué 28 points, atteignant le niveau de la médaille d'argent. Plus tôt ce mois-ci, le professeur titulaire de l'UCLA, Terence Tao, venait de promouvoir l'Olympiade mathématique de l'IA (AIMO Progress Award) avec un prix d'un million de dollars. De manière inattendue, le niveau de résolution de problèmes d'IA s'était amélioré à ce niveau avant juillet. Posez les questions simultanément sur l'OMI. La chose la plus difficile à faire correctement est l'OMI, qui a la plus longue histoire, la plus grande échelle et la plus négative.

En 2023, presque tous les domaines de l’IA évoluent à une vitesse sans précédent. Dans le même temps, l’IA repousse constamment les limites technologiques de domaines clés tels que l’intelligence embarquée et la conduite autonome. Sous la tendance multimodale, le statut de Transformer en tant qu'architecture dominante des grands modèles d'IA sera-t-il ébranlé ? Pourquoi l'exploration de grands modèles basés sur l'architecture MoE (Mixture of Experts) est-elle devenue une nouvelle tendance dans l'industrie ? Les modèles de grande vision (LVM) peuvent-ils constituer une nouvelle avancée dans la vision générale ? ...Dans la newsletter des membres PRO 2023 de ce site publiée au cours des six derniers mois, nous avons sélectionné 10 interprétations spéciales qui fournissent une analyse approfondie des tendances technologiques et des changements industriels dans les domaines ci-dessus pour vous aider à atteindre vos objectifs dans le nouveau année. Cette interprétation provient de la Week50 2023

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Editeur | KX La rétrosynthèse est une tâche essentielle dans la découverte de médicaments et la synthèse organique, et l'IA est de plus en plus utilisée pour accélérer le processus. Les méthodes d’IA existantes ont des performances insatisfaisantes et une diversité limitée. En pratique, les réactions chimiques provoquent souvent des modifications moléculaires locales, avec un chevauchement considérable entre les réactifs et les produits. Inspirée par cela, l'équipe de Hou Tingjun de l'Université du Zhejiang a proposé de redéfinir la prédiction rétrosynthétique en une seule étape en tant que tâche d'édition de chaînes moléculaires, en affinant de manière itérative la chaîne moléculaire cible pour générer des composés précurseurs. Et un modèle rétrosynthétique basé sur l'édition, EditRetro, est proposé, qui permet d'obtenir des prédictions diverses et de haute qualité. Des expériences approfondies montrent que le modèle atteint d'excellentes performances sur l'ensemble de données de référence standard USPTO-50 K, avec une précision top 1 de 60,8 %.
