Maison web3.0 MolE : un modèle de transformateur pour l'apprentissage des graphes moléculaires

MolE : un modèle de transformateur pour l'apprentissage des graphes moléculaires

Nov 12, 2024 pm 09:22 PM
Molecular graphs foundation model disentangled attention

présentez MolE, un modèle basé sur un transformateur pour l'apprentissage des graphes moléculaires. MolE fonctionne directement avec les graphiques moléculaires en fournissant à la fois des identifiants d'atomes et une connectivité graphique sous forme de jetons d'entrée. Les identifiants d'atomes sont calculés en hachant différentes propriétés atomiques en un seul entier, et la connectivité graphique est donnée sous la forme d'une matrice de distance topologique. MolE utilise un Transformer comme architecture de base, qui a également été appliquée aux graphiques auparavant. Les performances des transformateurs peuvent être attribuées en grande partie à l’utilisation intensive du mécanisme d’auto-attention. Dans les transformateurs standard, les jetons d'entrée sont intégrés dans des requêtes, des clés et des valeurs (Q, K, Vin {R} ^ {Ntimes d}), qui sont utilisées pour calculer l'auto-attention comme :

MolE : un modèle de transformateur pour l'apprentissage des graphes moléculaires

MolE est un modèle de transformateur conçu spécifiquement pour les graphiques moléculaires. Il fonctionne directement avec les graphiques en fournissant à la fois des identifiants d'atomes et une connectivité graphique sous forme de jetons d'entrée et d'informations de position relative, respectivement. Les identifiants d'atomes sont calculés en hachant différentes propriétés atomiques en un seul entier. Ce hachage contient notamment les informations suivantes :

- nombre d'atomes lourds voisins,

- nombre d'atomes d'hydrogène voisins,

- valence moins le nombre d'hydrogènes attachés,

- charge atomique,

- masse atomique,

- types d'obligations attachées,

- et l'adhésion au ring.

Les identifiants d'atomes (également connus sous le nom d'environnements d'atomes de rayon 0) ont été calculés à l'aide de l'algorithme de Morgan tel qu'implémenté dans RDKit.

En plus des jetons, MolE prend également en entrée les informations de connectivité du graphe, ce qui constitue un biais inductif important car il code la position relative des atomes dans le graphe moléculaire. Dans ce cas, la connectivité graphique est donnée sous la forme d'une matrice de distance topologique d où dij correspond à la longueur du chemin le plus court sur les liaisons séparant l'atome i de l'atome j.

MolE utilise un Transformer comme architecture de base, qui a également été appliquée aux graphiques auparavant. Les performances des transformateurs peuvent être attribuées en grande partie à l’utilisation intensive du mécanisme d’auto-attention. Dans les transformateurs standard, les jetons d'entrée sont intégrés dans des requêtes, des clés et des valeurs (Q, K, Vin {R} ^ {Ntimes d}), qui sont utilisées pour calculer l'auto-attention comme :

où ({H}_{0}in {R}^{Ntimes d}) sont les vecteurs cachés de sortie après auto-attention, et (d) est la dimension de l'espace caché.

Afin de transmettre explicitement les informations de position à travers chaque couche du transformateur, MolE utilise l'auto-attention démêlée de DeBERTa :

où ({Q}^{c},{K}^{c},{V}^{c}in {R}^{Ntimes d}) se trouvent les requêtes contextuelles, les clés et les valeurs qui contiennent des informations sur les jetons ( utilisé dans l'auto-attention standard), et ({Q}_{i,j}^{p},{K}_{i,j}^{p}in {R}^{Ntimes d}) sont la position requêtes et clés qui codent la position relative de l'atome (i{{{rm{th}}}}) par rapport à l'atome (j{{{rm{th}}}}). L'utilisation de l'attention démêlée rend MolE invariant par rapport à l'ordre des atomes d'entrée.

Comme mentionné précédemment, le pré-entraînement auto-supervisé peut transférer efficacement des informations de grands ensembles de données non étiquetés vers des ensembles de données plus petits avec des étiquettes. Nous présentons ici une stratégie de pré-formation en deux étapes. La première étape est une approche auto-supervisée pour apprendre la représentation de la structure chimique. Pour cela nous utilisons une approche de type BERT dans laquelle chaque atome est masqué aléatoirement avec une probabilité de 15%, dont 80% des jetons sélectionnés sont remplacés par un jeton de masque, 10% remplacés par un jeton aléatoire du vocabulaire, et 10% ne sont pas modifiés. Différent de BERT, la tâche de prédiction n'est pas de prédire l'identité du jeton masqué, mais de prédire l'environnement atomique correspondant (ou environnement atomique fonctionnel) de rayon 2, c'est-à-dire tous les atomes séparés de l'atome masqué par deux liaisons ou moins. . Il est important de garder à l’esprit que nous avons utilisé différentes stratégies de tokenisation pour les entrées (rayon 0) et les étiquettes (rayon 2) et que les jetons d’entrée ne contiennent pas de données superposées sur les atomes voisins afin d’éviter les fuites d’informations. Cela incite le modèle à regrouper les informations des atomes voisins tout en apprenant les caractéristiques moléculaires locales. MolE apprend via une tâche de classification dans laquelle chaque environnement atomique de rayon 2 a une étiquette prédéfinie, contrairement à l'approche de prédiction de contexte où la tâche consiste à faire correspondre l'intégration des environnements atomiques de rayon 4 à l'intégration des atomes de contexte (c'est-à-dire les atomes environnants au-delà). rayon 4) par échantillonnage négatif. La deuxième étape utilise un pré-entraînement supervisé au niveau graphique avec un grand ensemble de données étiquetées. Comme proposé par Hu et al., la combinaison du pré-entraînement au niveau des nœuds et des graphes permet d'apprendre des fonctionnalités locales et globales qui améliorent les performances de prédiction finale. Plus de détails concernant les étapes de pré-formation peuvent être trouvés dans la section Méthodes.

MolE a été pré-entraîné à l'aide d'une base de données ultra-large d'environ 842 millions de molécules de ZINC et ExCAPE-DB, en utilisant un schéma auto-supervisé (avec une perte auxiliaire) suivi d'un pré-entraînement supervisé avec environ 456 000 molécules (voir la section Méthodes pour plus de détails). Nous évaluons la qualité de l'intégration moléculaire en ajustant MolE sur un ensemble de tâches en aval. Dans ce cas, nous utilisons un ensemble de 22 tâches ADMET incluses dans le benchmark Therapeutic Data Commons (TDC). Ce benchmark est composé de 9 tâches de régression et 13 tâches de classification binaire sur des ensembles de données allant de centaines (par exemple, DILI avec 475 composés) à des milliers. de composés (telles que les tâches d'inhibition du CYP avec environ 13 000 composés). Un avantage de l'utilisation de ce benchmark est

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1666
14
Tutoriel PHP
1273
29
Tutoriel C#
1253
24
La crypto-monnaie OM Mantra s'écrase de 90%, l'équipe aurait déversé 90% de l'offre de jetons La crypto-monnaie OM Mantra s'écrase de 90%, l'équipe aurait déversé 90% de l'offre de jetons Apr 14, 2025 am 11:26 AM

Dans un coup dévastateur pour les investisseurs, la crypto-monnaie OM Mantra s'est effondrée d'environ 90% au cours des dernières 24 heures, le prix chuté à 0,58 $.

Le marché de la cryptographie a été témoin d'un rebond après le récent ralentissement Le marché de la cryptographie a été témoin d'un rebond après le récent ralentissement Apr 13, 2025 am 11:40 AM

Le marché de la cryptographie a été témoin d'un rebond après le récent ralentissement. Selon les données exclusives du marché, la capitalisation boursière totale de la crypto a atteint 2,71 $

TrollerCat ($ TCAT) se démarque comme une force dominante sur le marché des pièces MEME TrollerCat ($ TCAT) se démarque comme une force dominante sur le marché des pièces MEME Apr 14, 2025 am 10:24 AM

Avez-vous remarqué la montée fulgurante des pièces de monnaie dans le monde de la crypto-monnaie? Ce qui a commencé comme une blague en ligne est rapidement devenu une opportunité d'investissement lucrative

Alors que la peur stimule la vente, Blockdag (BDAG) se démarque de la foule Alors que la peur stimule la vente, Blockdag (BDAG) se démarque de la foule Apr 13, 2025 am 11:48 AM

Comme la peur stimule la vente sur le marché de la cryptographie, les principales pièces comme Cardano et Solana font face à des moments difficiles.

Nightfall: Un protocole d'amélioration de la confidentialité pour les blockchains Ethereum Nightfall: Un protocole d'amélioration de la confidentialité pour les blockchains Ethereum Apr 13, 2025 am 10:48 AM

Dans le monde en évolution rapide de la technologie de la blockchain, le protocole de la tombée nocturne d'EY est devenu un développement important.

Bitwise annonce la liste de quatre de ses ETP crypto à la Bourse de Londres (LSE) Bitwise annonce la liste de quatre de ses ETP crypto à la Bourse de Londres (LSE) Apr 18, 2025 am 11:24 AM

Bitwise, un principal gestionnaire d'actifs numériques, a annoncé l'inscription de quatre de ses produits négociés en échange de crypto (ETP) à la Bourse de Londres (LSE).

Le projet de loi du Sénat américain menace de frapper des centres de données au service des réseaux de blockchain et des modèles d'intelligence artificielle avec des frais Le projet de loi du Sénat américain menace de frapper des centres de données au service des réseaux de blockchain et des modèles d'intelligence artificielle avec des frais Apr 12, 2025 am 09:54 AM

Le projet de loi vise prétendument à lutter contre les impacts environnementaux de l'augmentation de la demande d'énergie et de protéger

Metaplanet étend ses titres de trésor bitcoin par 319 BTC supplémentaires Metaplanet étend ses titres de trésor bitcoin par 319 BTC supplémentaires Apr 15, 2025 am 11:20 AM

Dans une annonce faite plus tôt dans la journée, la firme japonaise Metaplanet a révélé qu'elle avait acquis 319 autres Bitcoin (BTC), poussant son total de sociétés au-delà de 4 500 BTC.