Table des matières
(1) Conception d'un micro-benchmark pour isoler l'impact de la précision numérique sur les écarts numériques.
(2) Analyse basée sur les données basée sur la métrique de distance de Wasserstein.
Méthodes expérimentales
Quantification des écarts numériques grâce à des micro-benchmarks
Comprendre le biais numérique dû aux différences de poids
Maison Périphériques technologiques IA Flash Attention est-il stable ? Meta et Harvard ont constaté que les écarts de poids de leur modèle fluctuaient de plusieurs ordres de grandeur.

Flash Attention est-il stable ? Meta et Harvard ont constaté que les écarts de poids de leur modèle fluctuaient de plusieurs ordres de grandeur.

May 30, 2024 pm 01:24 PM
人工智能 机器学习 ai 模型

Meta FAIR s'est associé à Harvard pour fournir un nouveau cadre de recherche permettant d'optimiser les biais de données causés par l'apprentissage automatique à grande échelle.

Comme nous le savons tous, la formation de grands modèles de langage prend souvent des mois et utilise des centaines, voire des milliers de GPU. En prenant comme exemple le modèle LLaMA2 70B, sa formation nécessite un total de 1 720 320 heures GPU. La formation de grands modèles présente des défis systémiques uniques en raison de l’ampleur et de la complexité de ces charges de travail.

Récemment, de nombreuses institutions ont signalé une instabilité au cours du processus de formation lors de la formation des modèles d'IA générative SOTA. Elles apparaissent généralement sous la forme de pics de perte, comme le modèle PaLM de Google, qui se sont produits jusqu'à 20 fois au cours du processus de formation. pointes.

L'écart numérique est à l'origine de cette inexactitude de formation. En raison du coût d'exécution extrêmement élevé de la formation sur de grands modèles de langage, la manière de quantifier l'écart numérique est devenue une question clé.

Dans leurs derniers travaux, des chercheurs de Meta et de l'Université Harvard ont développé une méthode quantitative fondée sur des principes pour comprendre les biais numériques dans l'optimisation de la formation. Ceci est utilisé pour évaluer différentes techniques d'optimisation de pointe et déterminer si elles pourraient introduire des instabilités inattendues lorsqu'elles sont utilisées pour entraîner de grands modèles. Les chercheurs ont découvert que même si les méthodes d’optimisation existantes fonctionnaient bien sur certaines tâches, certains écarts numériques se produisaient lorsqu’elles étaient appliquées à de grands modèles. Ce biais numérique peut créer une instabilité pendant le processus de formation, entraînant une dégradation des performances du modèle. Afin de résoudre ce problème, les chercheurs ont proposé une optimisation basée sur des méthodes quantitatives fondées sur des principes

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动


  • Titre de l'article : Is Flash Attention Stable ?
  • Lien papier : https://arxiv.org/pdf/2405.02803

Il a été constaté qu'en un seul passage vers l'avant, l'écart numérique de Flash Attention était d'un ordre de grandeur supérieur à l'attention de base de BF16.

Plus précisément, la méthode comprend deux étapes, dont :

  • Développer un micro-benchmark pour perturber la précision numérique dans une optimisation donnée
  • Évaluer les valeurs numériques grâce à une analyse basée sur les données ; basé sur la distance de Wasserstein Comment le biais se traduit par des changements dans les pondérations du modèle.

Les chercheurs ont analysé la technologie d'optimisation SOTA Flash Attention et ont quantifié l'écart numérique qui peut être introduit. Flash Attention est une technologie largement utilisée pour accélérer les mécanismes d’attention et est souvent considérée comme un goulot d’étranglement du système dans le modèle Transformer. Bien que Flash Attention améliore la vitesse et réduit l'accès à la mémoire, il repose également sur l'optimisation des algorithmes, et l'optimisation des algorithmes peut conduire à une augmentation de l'écart numérique.

Les chercheurs ont émis l'hypothèse que l'ajout de facteurs de redimensionnement pourrait introduire des approximations involontaires, conduisant à des compromis numériques, qui pourraient par la suite affecter la stabilité de l'entraînement.

Ils ont analysé Flash Attention dans le contexte de charges de travail multimodales de texte en image pour déterminer l'importance potentielle des écarts numériques entre Flash Attention et sa ligne de base. En fin de compte, ils introduisent un cadre pour quantifier le biais numérique de l’optimisation de la formation et ses effets en aval.

Les chercheurs ont apporté les deux contributions principales suivantes à la quantification des écarts numériques :

(1) Conception d'un micro-benchmark pour isoler l'impact de la précision numérique sur les écarts numériques.

Le micro-benchmark conçu par les chercheurs est une technique utilisée pour mesurer et quantifier l'écart numérique provoqué par l'optimisation traditionnelle de la boîte noire (telle que Flash Attention). En perturbant des aspects qui ne sont généralement pas disponibles dans les noyaux fournis, ils ont été les premiers à découvrir qu'à faible précision numérique (BF16), Flash Attention a un biais numérique d'environ un ordre de grandeur supérieur à celui de Baseline Attention.

(2) Analyse basée sur les données basée sur la métrique de distance de Wasserstein.

Grâce à cette analyse, les chercheurs contextualisent les écarts numériques observés et forment une limite supérieure de leur impact sur les propriétés du modèle en aval. Dans l'étude de cas des chercheurs, ils ont pu limiter l'impact du biais numérique observé et ont découvert : "Flash Attention a introduit un biais de poids du modèle qui était environ 1/2 à 1/5 fois celui d'un entraînement de faible précision

."

Cette étude souligne l'importance de développer une approche fondée sur des principes pour « non seulement quantifier mais aussi contextualiser l'impact de l'optimisation de la formation sur le biais numérique ». En construisant des proxys pour contextualiser le contexte du biais numérique, dans le but de déduire la probabilité d'effets de modèle en aval (c'est-à-dire , instabilités de formation) qui sont souvent difficiles à mesurer.

Méthodes expérimentales

Les chercheurs ont d'abord développé un micro-benchmark pour isoler et étudier l'écart numérique provoqué par Flash Attention. Comme le montre la figure 2, ils ont réimplémenté numériquement Flash Attention pour analyser différentes précisions numériques et appliquer des mesures d'optimisation potentielles à chaque étape de l'algorithme.

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Figure 2 : Résumé de la conception du microbenchmark.

Cela est nécessaire car le noyau Flash Attention ne prend actuellement en charge que les formats numériques FP16 et BF16. Ce noyau est également un appel API wrapper pour le code CUDA, ce qui rend difficile la perturbation de l'algorithme pour examiner l'impact du biais numérique.

En revanche, leur conception de micro-référence permet une saisie et une modification précises au sein de l'algorithme. Les chercheurs ont vérifié le microbenchmark par rapport au noyau Flash Attention d'origine.

Ils ont en outre conçu une technique pour comparer le résultat de la matrice Attention à chaque étape de l'exécution du modèle. Et modifié le code du modèle pour calculer l'attention de base et l'attention flash à chaque fois que l'attention est appelée, ce qui permet une comparaison précise de la matrice de sortie pour la même matrice d'entrée.

Pour mettre cela en contexte, nous avons également utilisé les métriques de différence maximale et de distance de Wasserstein pour quantifier la différence de poids des modèles tout au long de l'entraînement en utilisant des séries d'entraînement identiques et indépendantes.

Pour l'expérience de formation, les chercheurs ont utilisé une charge de travail d'IA générative (c'est-à-dire un modèle texte en image) qui convertit la saisie de texte en images. Ils ont recyclé le modèle à l'aide de l'ensemble de données Shutterstock et ont mené l'expérience sur un cluster de GPU NVIDIA 80 Go A100.

Quantification des écarts numériques grâce à des micro-benchmarks

Les chercheurs ont d'abord analysé l'impact de Flash Attention dans le processus de passe avant. Ils ont utilisé des micro-benchmarks pour examiner l’impact de différentes précisions numériques sur la matrice de sortie calculée par Attention, à condition que les vecteurs de requête, de clé et de valeur initialisés de manière aléatoire soient les mêmes.

Comme le montre la figure 3, lorsque les chercheurs utilisent différents formats numériques allant de BF16 à FP64, l'écart numérique entre Flash Attention et Baseline Attention diminue à mesure que le nombre de chiffres de la mantisse augmente. Cela suggère que la différence numérique est due à l'approximation inhérente au fait d'avoir moins de chiffres de mantisse.

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Figure 3 : L'effet du format numérique sur la déviation numérique de Flash Attention.

Ensuite, le chercheur a défini une « valeur d'or » pour l'attention de base dans le format numérique FP64 pour une comparaison standard, puis a comparé la sortie Attention dans différents formats numériques avec cette valeur (comme le montre la figure 4).

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Figure 4 : Comparaison de la « valeur or » de l'attention de base sous le FP64.

Les résultats montrent que l'écart numérique de Flash Attention est environ 10 fois supérieur à celui de Baseline sous BF16.

Pour analyser plus en détail cet écart numérique observé, les chercheurs ont scanné la longueur de séquence de la matrice tout en gardant constantes la taille des tuiles et la taille de la SRAM (comme le montre la figure 5).

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Figure 5 : L'effet de la longueur de la séquence sur l'écart numérique de Flash Attention.

Comme le montre la figure, à mesure que la longueur de la séquence augmente, qu'elle soit mesurée par (a) la limite supérieure de la différence maximale, ou par (b) la moyenne et l'écart type de la différence, la différence entre Flash Attention et Baseline Attention Les écarts numériques augmentent.

De plus, les chercheurs utilisent également des conceptions de micro-référence pour mener des expériences avec différentes optimisations afin de mieux comprendre l'impact des écarts numériques (comme le montre la figure 6).

La figure 6a montre comment l'échange de l'ordre des dimensions des blocs entraîne une augmentation de la différence numérique entre Flash Attention et Baseline Attention. D'autres perturbations sur la figure 6b, telles que la limitation de la taille des carreaux aux carrés, n'ont aucun effet sur le biais numérique. La figure 6c montre que plus la taille du bloc/tuile est grande, plus l'écart numérique est petit.

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Figure 6 : Changements d'algorithme et leur impact sur les écarts numériques observés.

Comprendre le biais numérique dû aux différences de poids

Bien que Flash Attention puisse provoquer un biais numérique dans la sortie d'attention lors de la passe avant, le but ultime de cette étude est de déterminer si cela se produira pendant l'entraînement du modèle et produira des effets pour déterminer si cela contribue à l’instabilité de la formation.

Par conséquent, les chercheurs espèrent quantifier si Flash Attention modifie le modèle pendant l'entraînement, c'est-à-dire si la différence de sortie d'attention observée ci-dessus se reflète dans les poids du modèle mis à jour pendant l'entraînement.

Les chercheurs ont utilisé deux indicateurs pour mesurer la différence de poids des modèles entre les modèles formés à l'aide de Baseline Attention et les modèles formés à l'aide de Flash Attention. La différence maximale est d'abord calculée, c'est-à-dire en trouvant la valeur absolue de la différence entre les matrices de poids et en prenant la valeur maximale, obtenant ainsi la limite supérieure de l'écart, comme suit :

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Alors que la différence maximale fournit une limite supérieure de l'écart numérique, mais elle ne prend pas en compte la distribution de chaque matrice. Par conséquent, les chercheurs quantifient les différences de poids grâce à la distance de Wasserstein, qui est une mesure courante de similarité entre les tenseurs. Bien que légèrement plus complexe sur le plan informatique, Wasserstein Distance inclut des informations sur la forme de la distribution tensorielle pour mesurer la similarité. La formule de calcul se résume ainsi :

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Plus la valeur est faible, plus la similarité entre les matrices est élevée.

À l'aide de ces deux mesures, les chercheurs ont ensuite quantifié l'évolution des poids du modèle de Flash Attention par rapport à l'attention de base tout au long du processus de formation :

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Selon la distance de Wasserstein et la différence maximale, pour deux indicateurs, pendant Tout au long du processus de formation, l'ajout de Flash Attention modifie le poids du modèle, et à mesure que la formation se poursuit, cette différence ne fera que devenir de plus en plus grande. Cela montre que le modèle formé à l'aide de Flash Attention est différent du modèle formé à l'aide de Baseline Attention. Le même modèle formé a convergé vers un modèle différent.

Cependant, la formation est un processus stochastique et certains changements dans la structure du modèle peuvent produire des résultats similaires en termes d'effets en aval et de précision. Ceci est remarquable même si les poids des modèles formés avec Flash Attention et Baseline Attention sont différents.

Former complètement un modèle et évaluer sa précision est une tâche coûteuse et gourmande en ressources, en particulier pour les grands modèles dont la formation prend des mois.

Le chercheur a configuré un proxy pour explorer :

(a) Quelle est l'importance de ces changements de poids ?

(b) Cela peut-il être lié aux changements de poids standard dans d'autres optimisations d'entraînement largement adoptées ?

Afin d'atteindre cet objectif, les chercheurs ont conçu une série d'expériences pour comparer l'évolution de la différence de poids au cours du processus d'entraînement dans différents scénarios.

En plus de comparer le processus d'entraînement à l'aide de Flash Attention et de Baseline Attention, ils ont également quantifié la différence de poids au cours du même processus d'entraînement où les poids étaient initialisés à différentes valeurs aléatoires au début de l'entraînement. Cela fournit une limite, car l'initialisation de poids aléatoire est une technique courante et produit souvent des résultats équivalents.

De plus, les chercheurs ont également mesuré les changements dans les poids des modèles entraînés avec différentes précisions. La précision numérique (c'est-à-dire FP16 par rapport à FP32) a le potentiel de provoquer des changements en aval, ce qui sert de limite supérieure à l'importance des pondérations Flash Attention.

Comme le montre la figure 8, on peut constater que le taux de changement de biais de poids du modèle à l'aide de Flash Attention est comparable ou inférieur au taux de changement de biais de poids des différentes initialisations du modèle (notez la pente des courbes rouge et bleue) .

De plus, le taux de changement de poids lors de l'utilisation du FP16 et du FP32 est plus élevé et le changement est plus important que lorsque différents modèles sont initialisés.

Ces résultats fournissent une approximation et montrent : "Bien que Flash Attention présente un biais numérique, il sera limité par l'initialisation aléatoire du modèle et l'entraînement de faible précision. Et le biais de poids du modèle introduit est d'environ 10 % lors d'un entraînement avec une faible précision. . 1/2 à 1/5 fois "

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Figure 8 : Différence de poids relative pendant l'entraînement mesurée à l'aide de la métrique de distance Wasserstein.

Pour plus de détails sur la recherche, veuillez vous référer à l'article original.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Bytedance Cutting lance le super abonnement SVIP : 499 yuans pour un abonnement annuel continu, offrant une variété de fonctions d'IA Bytedance Cutting lance le super abonnement SVIP : 499 yuans pour un abonnement annuel continu, offrant une variété de fonctions d'IA Jun 28, 2024 am 03:51 AM

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Assistant de codage d'IA augmenté par le contexte utilisant Rag et Sem-Rag Assistant de codage d'IA augmenté par le contexte utilisant Rag et Sem-Rag Jun 10, 2024 am 11:08 AM

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Le réglage fin peut-il vraiment permettre au LLM d'apprendre de nouvelles choses : l'introduction de nouvelles connaissances peut amener le modèle à produire davantage d'hallucinations Le réglage fin peut-il vraiment permettre au LLM d'apprendre de nouvelles choses : l'introduction de nouvelles connaissances peut amener le modèle à produire davantage d'hallucinations Jun 11, 2024 pm 03:57 PM

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

Sept questions d'entretien technique Cool GenAI et LLM Sept questions d'entretien technique Cool GenAI et LLM Jun 07, 2024 am 10:06 AM

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

Cinq écoles d'apprentissage automatique que vous ne connaissez pas Cinq écoles d'apprentissage automatique que vous ne connaissez pas Jun 05, 2024 pm 08:51 PM

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Jul 25, 2024 am 06:42 AM

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Les performances de SOTA, la méthode d'IA de prédiction d'affinité protéine-ligand multimodale de Xiamen, combinent pour la première fois des informations sur la surface moléculaire Les performances de SOTA, la méthode d'IA de prédiction d'affinité protéine-ligand multimodale de Xiamen, combinent pour la première fois des informations sur la surface moléculaire Jul 17, 2024 pm 06:37 PM

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

SK Hynix présentera de nouveaux produits liés à l'IA le 6 août : HBM3E à 12 couches, NAND à 321 hauteurs, etc. SK Hynix présentera de nouveaux produits liés à l'IA le 6 août : HBM3E à 12 couches, NAND à 321 hauteurs, etc. Aug 01, 2024 pm 09:40 PM

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière

See all articles