


Classification des bruits cardiaques par apprentissage profond basée sur un spectrogramme logarithmique
Cet article est très intéressant. Il propose deux modèles de classification des sons de la fréquence cardiaque basés sur le spectrogramme logarithmique du signal sonore du cœur. Nous savons tous que les spectrogrammes sont largement utilisés en reconnaissance vocale. Cet article traite le signal sonore cardiaque comme un signal vocal et obtient de bons résultats
Le signal sonore cardiaque est divisé en images de longueur constante et ses caractéristiques de spectrogramme logarithmique sont extraites. L'article propose une mémoire à long terme (LSTM) et. Deux modèles d'apprentissage profond, le réseau neuronal convolutif (CNN), classent les sons des battements cardiaques en fonction des caractéristiques extraites.
Ensemble de données sur les sons cardiaques
Le diagnostic d'imagerie comprend l'imagerie par résonance magnétique cardiaque (IRM), la tomodensitométrie et l'imagerie de perfusion myocardique. Les inconvénients de ces technologies sont également évidents : des exigences élevées envers les machines et les professionnels modernes et des temps de diagnostic longs.
L'ensemble de données utilisé dans cet article est un ensemble de données publiques, qui contient 1 000 échantillons de signaux au format .wav avec une fréquence d'échantillonnage de 8 kHz. L'ensemble de données est divisé en 5 catégories, dont 1 catégorie normale (N) et 4 catégories anormales : sténose aortique (SA), régurgitation mitrale (MR), sténose mitrale (MS) et régurgitation valvulaire mitrale (MR). )
La sténose aortique (SA) se produit lorsque la valvule aortique est trop petite, étroite ou rigide. Le souffle typique de la sténose aortique est un souffle aigu en forme de losange.
La régurgitation mitrale (MR) se produit lorsque la valvule mitrale du cœur ne se ferme pas correctement, provoquant le retour du sang dans le cœur au lieu d'être pompé. Lors de l'auscultation du cœur fœtal, le son de S1 peut être faible (parfois fort) jusqu'à ce que le volume du murmure augmente de S2. En raison du débit mitral rapide après S3, un souffle mi-diastolique court et grondant peut être entendu
La sténose mitrale (SEP) signifie que la valvule mitrale est endommagée et ne peut pas s'ouvrir complètement. L'auscultation des bruits cardiaques montre que S1 s'aggrave en cas de sténose mitrale précoce et devient mou en cas de sténose mitrale sévère. À mesure que l’hypertension pulmonaire se développe, le son S2 sera accentué. Les patients atteints de SEP pure n'ont pratiquement pas de S3 ventriculaire gauche.
Le prolapsus de la valve mitrale (MVP) fait référence au prolapsus des feuillets de la valve mitrale dans l'oreillette gauche pendant la contraction cardiaque. La MVP est généralement bénigne mais peut entraîner des complications telles qu'une régurgitation mitrale, une endocardite et une rupture du cordon. Les signes incluent des clics mi-systoliques et des souffles systoliques tardifs (en cas de régurgitation)
Prétraitement et extraction de caractéristiques
Les signaux sonores ont des longueurs différentes, les échantillons doivent donc être corrigés pour chaque fichier enregistré. Pour garantir que le signal sonore contient au moins un cycle cardiaque complet, nous réduisons la longueur. Étant donné qu'un cœur adulte bat 65 à 75 fois par minute et que le cycle de battement cardiaque dure environ 0,8 seconde, nous avons coupé les échantillons de signal en segments de 2,0 secondes, 1,5 seconde et 1,0 seconde
Sur la base de la transformée de Fourier discrète ( DFT), les bruits cardiaques sont La forme d'onde originale du signal est convertie en un spectrogramme logarithmique. La DFT y(k) du signal sonore est l'équation (1) et le spectre logarithmique s est défini par l'équation (2).
Dans la formule, N est la longueur du vecteur x et ε = 10^(- 6) est un petit décalage. Les formes d'onde et les spectrogrammes logarithmiques de certains échantillons de bruits cardiaques sont les suivants :
Modèle d'apprentissage profond
1, LSTM
Le modèle LSTM est conçu avec 2 couches de connexion directe, puis 3 couches de connexion complète. La troisième couche entièrement connectée entre dans le classificateur softmax.
2. Modèle CNN
Comme le montre la figure ci-dessus, les deux premières couches convolutives sont suivies d'une couche de pooling maximale qui se chevauche. La troisième couche convolutive est directement connectée à la première couche entièrement connectée. La deuxième couche entièrement connectée est transmise à un classificateur softmax avec cinq étiquettes de classe. Utilisation de BN et ReLU après chaque couche convolutionnelle
3. Détails de la formation
Résultats
L'ensemble de formation occupe 70 % de l'ensemble des données, tandis que l'ensemble de test contient le reste. partie
Lorsque la durée du segment du modèle CNN est de 2,0 s, la précision la plus élevée est de 0,9967 ; la précision LSTM avec un temps de segmentation de 1,0 s est la plus basse de 0,9300.
La précision globale du modèle CNN est respectivement de 0,9967, 0,9933 et 0,9900, et la durée du segment est respectivement de 2,0 secondes, 1,5 seconde et 1,0 seconde, tandis que les trois chiffres du modèle LSTM sont respectivement de 0,9500, 0,9700 et 0,9300
CNN La précision de prédiction du modèle sur différentes périodes de temps est supérieure à celle du modèle LSTM
Voici la matrice de confusion :
La classe N (Normal) a la précision de prédiction la plus élevée, atteignant 60 dans 5 cas, tandis que la classe MVP a la précision de prédiction la plus faible parmi tous les cas.
La durée d'entrée du modèle LSTM est de 2,0 s et le temps de prédiction le plus long est de 9,8631 ms. Le modèle CNN avec un temps de classification de 1,0 s a le temps de prédiction le plus court, soit 4,2686 ms.
Par rapport à d'autres SOTA, certaines études ont une très grande précision, mais ces études n'impliquent que deux catégories (normales et anormales), alors que notre étude est divisée en cinq catégories
Par rapport à d'autres études utilisant le même ensemble de données (0,9700), l'étude papier s'est considérablement améliorée, avec la plus grande précision de 0,9967.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

BERT est un modèle de langage d'apprentissage profond pré-entraîné proposé par Google en 2018. Le nom complet est BidirectionnelEncoderRepresentationsfromTransformers, qui est basé sur l'architecture Transformer et présente les caractéristiques d'un codage bidirectionnel. Par rapport aux modèles de codage unidirectionnels traditionnels, BERT peut prendre en compte les informations contextuelles en même temps lors du traitement du texte, de sorte qu'il fonctionne bien dans les tâches de traitement du langage naturel. Sa bidirectionnalité permet à BERT de mieux comprendre les relations sémantiques dans les phrases, améliorant ainsi la capacité expressive du modèle. Grâce à des méthodes de pré-formation et de réglage fin, BERT peut être utilisé pour diverses tâches de traitement du langage naturel, telles que l'analyse des sentiments, la dénomination

Les fonctions d'activation jouent un rôle crucial dans l'apprentissage profond. Elles peuvent introduire des caractéristiques non linéaires dans les réseaux neuronaux, permettant ainsi au réseau de mieux apprendre et simuler des relations entrées-sorties complexes. La sélection et l'utilisation correctes des fonctions d'activation ont un impact important sur les performances et les résultats de formation des réseaux de neurones. Cet article présentera quatre fonctions d'activation couramment utilisées : Sigmoid, Tanh, ReLU et Softmax, à partir de l'introduction, des scénarios d'utilisation, des avantages, Les inconvénients et les solutions d'optimisation sont abordés pour vous fournir une compréhension complète des fonctions d'activation. 1. Fonction sigmoïde Introduction à la formule de la fonction SIgmoïde : La fonction sigmoïde est une fonction non linéaire couramment utilisée qui peut mapper n'importe quel nombre réel entre 0 et 1. Il est généralement utilisé pour unifier le

Écrit précédemment, nous discutons aujourd'hui de la manière dont la technologie d'apprentissage profond peut améliorer les performances du SLAM (localisation et cartographie simultanées) basé sur la vision dans des environnements complexes. En combinant des méthodes d'extraction de caractéristiques approfondies et de correspondance de profondeur, nous introduisons ici un système SLAM visuel hybride polyvalent conçu pour améliorer l'adaptation dans des scénarios difficiles tels que des conditions de faible luminosité, un éclairage dynamique, des zones faiblement texturées et une gigue importante. Notre système prend en charge plusieurs modes, notamment les configurations étendues monoculaire, stéréo, monoculaire-inertielle et stéréo-inertielle. En outre, il analyse également comment combiner le SLAM visuel avec des méthodes d’apprentissage profond pour inspirer d’autres recherches. Grâce à des expériences approfondies sur des ensembles de données publiques et des données auto-échantillonnées, nous démontrons la supériorité du SL-SLAM en termes de précision de positionnement et de robustesse du suivi.

L'intégration d'espace latent (LatentSpaceEmbedding) est le processus de mappage de données de grande dimension vers un espace de faible dimension. Dans le domaine de l'apprentissage automatique et de l'apprentissage profond, l'intégration d'espace latent est généralement un modèle de réseau neuronal qui mappe les données d'entrée de grande dimension dans un ensemble de représentations vectorielles de basse dimension. Cet ensemble de vecteurs est souvent appelé « vecteurs latents » ou « latents ». encodages". Le but de l’intégration de l’espace latent est de capturer les caractéristiques importantes des données et de les représenter sous une forme plus concise et compréhensible. Grâce à l'intégration de l'espace latent, nous pouvons effectuer des opérations telles que la visualisation, la classification et le regroupement de données dans un espace de faible dimension pour mieux comprendre et utiliser les données. L'intégration d'espace latent a de nombreuses applications dans de nombreux domaines, tels que la génération d'images, l'extraction de caractéristiques, la réduction de dimensionnalité, etc. L'intégration de l'espace latent est le principal

Dans la vague actuelle de changements technologiques rapides, l'intelligence artificielle (IA), l'apprentissage automatique (ML) et l'apprentissage profond (DL) sont comme des étoiles brillantes, à la tête de la nouvelle vague des technologies de l'information. Ces trois mots apparaissent fréquemment dans diverses discussions de pointe et applications pratiques, mais pour de nombreux explorateurs novices dans ce domaine, leurs significations spécifiques et leurs connexions internes peuvent encore être entourées de mystère. Alors regardons d'abord cette photo. On constate qu’il existe une corrélation étroite et une relation progressive entre l’apprentissage profond, l’apprentissage automatique et l’intelligence artificielle. Le deep learning est un domaine spécifique du machine learning, et le machine learning

1. Introduction La récupération de vecteurs est devenue un élément essentiel des systèmes modernes de recherche et de recommandation. Il permet une correspondance de requêtes et des recommandations efficaces en convertissant des objets complexes (tels que du texte, des images ou des sons) en vecteurs numériques et en effectuant des recherches de similarité dans des espaces multidimensionnels. Des bases à la pratique, passez en revue l'historique du développement d'Elasticsearch. vector retrieval_elasticsearch En tant que moteur de recherche open source populaire, le développement d'Elasticsearch en matière de récupération de vecteurs a toujours attiré beaucoup d'attention. Cet article passera en revue l'historique du développement de la récupération de vecteurs Elasticsearch, en se concentrant sur les caractéristiques et la progression de chaque étape. En prenant l'historique comme guide, il est pratique pour chacun d'établir une gamme complète de récupération de vecteurs Elasticsearch.

Près de 20 ans se sont écoulés depuis que le concept d'apprentissage profond a été proposé en 2006. L'apprentissage profond, en tant que révolution dans le domaine de l'intelligence artificielle, a donné naissance à de nombreux algorithmes influents. Alors, selon vous, quels sont les 10 meilleurs algorithmes pour l’apprentissage profond ? Voici les meilleurs algorithmes d’apprentissage profond, à mon avis. Ils occupent tous une position importante en termes d’innovation, de valeur d’application et d’influence. 1. Contexte du réseau neuronal profond (DNN) : Le réseau neuronal profond (DNN), également appelé perceptron multicouche, est l'algorithme d'apprentissage profond le plus courant lorsqu'il a été inventé pour la première fois, jusqu'à récemment en raison du goulot d'étranglement de la puissance de calcul. années, puissance de calcul, La percée est venue avec l'explosion des données. DNN est un modèle de réseau neuronal qui contient plusieurs couches cachées. Dans ce modèle, chaque couche transmet l'entrée à la couche suivante et

Editeur | Radis Skin Depuis la sortie du puissant AlphaFold2 en 2021, les scientifiques utilisent des modèles de prédiction de la structure des protéines pour cartographier diverses structures protéiques dans les cellules, découvrir des médicaments et dresser une « carte cosmique » de chaque interaction protéique connue. Tout à l'heure, Google DeepMind a publié le modèle AlphaFold3, capable d'effectuer des prédictions de structure conjointe pour des complexes comprenant des protéines, des acides nucléiques, de petites molécules, des ions et des résidus modifiés. La précision d’AlphaFold3 a été considérablement améliorée par rapport à de nombreux outils dédiés dans le passé (interaction protéine-ligand, interaction protéine-acide nucléique, prédiction anticorps-antigène). Cela montre qu’au sein d’un cadre unique et unifié d’apprentissage profond, il est possible de réaliser
