Maison > Périphériques technologiques > IA > Recurrent Neural Network Tutorial (RNN)

Recurrent Neural Network Tutorial (RNN)

Lisa Kudrow
Libérer: 2025-03-11 09:52:10
original
290 Les gens l'ont consulté

Réseaux de neurones récurrents (RNN): un guide complet

Réseaux de neurones récurrents (RNN) sont un type puissant de réseau de neurones artificiels (ANN) utilisé dans des applications comme Siri et la recherche vocale de Google d'Apple et de Google. Leur capacité unique à conserver les entrées passées via la mémoire interne les rend idéales pour des tâches telles que la prédiction du cours des actions, la génération de texte, la transcription et la traduction automatique. Contrairement aux réseaux de neurones traditionnels où les entrées et les sorties sont indépendantes, les sorties RNN dépendent des éléments précédents dans une séquence. De plus, les RNN partagent les paramètres à travers les couches du réseau, l'optimisation des ajustements de poids et de biais pendant la descendance du gradient.

Recurrent Network Tutorial (RNN) <p> Le diagramme ci-dessus illustre un RNN de base. Dans un scénario de prévision du cours de l'action utilisant des données comme [45, 56, 45, 49, 50, ...], chaque entrée (x0 à xt) intègre des valeurs passées. Par exemple, X0 serait de 45, X1 serait de 56, et ces valeurs contribueraient à prédire l'élément de séquence suivante. </p> <h2> comment les RNN fonctionnent </h2> <p> dans les RNN, les cycles d'information à travers une boucle, faisant de la sortie une fonction des entrées actuelles et précédentes. </p> <p> <Img src =

La couche d'entrée (x) traite les comprestiques de l'entrée, la compréhension initiale à la couche moyenne (A), qui comprend plusieurs compressions cachées, la compréhension initiale (A) poids et biais. Ces paramètres sont partagés sur la couche cachée, créant une seule couche bouclée au lieu de plusieurs couches distinctes. Les RNN utilisent la rétropropagation à travers le temps (BPTT) au lieu de la rétro-propagation traditionnelle pour calculer les gradients. BPTT résume les erreurs à chaque étape de temps en raison des paramètres partagés.

Les types de RNN

RNN offrent une flexibilité dans les longueurs d'entrée et de sortie, contrairement aux réseaux d'alimentation avec des entrées et sorties uniques. Cette adaptabilité permet aux RNN de gérer diverses tâches, notamment la génération de musique, l'analyse des sentiments et la traduction automatique. Il existe quatre principaux types:

  • One à un: Un réseau de neurones simples adapté aux problèmes d'entrée / sortie uniques.
  • One-à-plusieurs: traite une entrée unique pour générer plusieurs sorties (par exemple, l'image de la divisation).
  • Classification).
  • plusieurs à-mères: gère plusieurs entrées et sorties (par exemple, traduction machine).

 (RNN)

Cours d'apprentissage automatique recommandés

href = "https://www.php.cn/link/8708107b2ff5de15d0244471ae041fdb"> Explorer l'introduction à l'apprentissage en profondeur dans Python

CNNS vs RNNS

Networks Convolutional Networks (CNNNS) Traitement des données spatiales (comme les images), couramment utilisées dans la vision par ordinateur. Les réseaux de neurones simples luttent avec les dépendances de pixels d'image, tandis que les CNN, avec leurs couches convolutionnelles, relu, poolling et entièrement connectées, excellent dans ce domaine.

Recurrent Tutoriel (RNN)

Différences de clés:

  • Les CNN gèrent les données clairsemées (images), tandis que les RNN gèrent les séries temporelles et les données séquentielles.
  • Les CNN utilisent le rétrécissement standard, les RNN utilisent BPTT. Les RNN sont flexibles.
  • Les CNN sont à la main; Les RNN utilisent des boucles pour des données séquentielles.
  • Les CNN sont utilisés pour le traitement d'image / vidéo; RNNS pour l'analyse de la parole / du texte.

Limitations RNN

Les RNN simples sont confrontés à deux défis principaux liés aux gradients:

  1. Gradient de disparition: Les gradules deviennent trop petits, entravent les mises à jour des paramètres et les producteurs. L'instabilité et les temps de formation plus longs.
  2. Les solutions incluent la réduction des couches cachées ou l'utilisation d'architectures avancées comme LSTM et GRU.

    Architectures RNN avancées

    Les RNN simples souffrent de limitations de mémoire à court terme. LSTM et GRU abordent ceci en permettant la rétention d'informations sur des périodes prolongées.

    Recurrent Neural Network tutorial (RNN) P>

  3. Mémoire à court terme (LSTM): un RNN avancé conçu pour atténuer les gradients de fuite / explosion. Ses quatre couches en interaction facilitent la rétention de la mémoire à long terme, ce qui le rend adapté à la traduction automatique, à la synthèse de la parole et plus encore.
  4. Network Netororal (RNNNNN)

  • Unité récurrente fermée (GRU): Une variation plus simple de LSTM, en utilisant des portes de mise à jour et de réinitialisation pour gérer le flux d'informations. Son architecture rationalisée conduit souvent à une formation plus rapide par rapport à LSTM.

Pice du réseau neurant récurrent (RNN) Prédiction utilisant LSTM & amp; GRU

Cette section détaille un projet utilisant LSTM et GRU pour prédire les cours des actions MasterCard. Le code utilise des bibliothèques comme Pandas, Numpy, Matplotlib, Scikit-Learn et Tensorflow.

(L'exemple de code détaillé de l'entrée d'origine est omis ici pour Brevity. Les étapes de base sont résumées ci-dessous. Prétraitement: Divisez les données en ensembles de formation et de test, à l'échelle de Minmaxscaler et de remodeler pour l'entrée du modèle.

  • Modèle LSTM: Créer et former un modèle LSTM.
  • Resultations LSTM: La réduction des performances du modèle LSTM en utilisant RMSE. Modèle: Construisez et entraînez un modèle GRU avec une architecture similaire.
  • Résultats du GRU: Évaluez les performances du modèle GRU en utilisant RMSE.
  • Conclusion: Comparez les performances des modèles LSTM et GRU. src = "https://img.php.cn/upload/article/000/000/000/174165794996336.jpg" alt = "Recurrent Neural Network Tutorial (RNN)" />

    Recurrent Neural Network Tutorial (RNN)

    La conclusion est utilisée pour les tasks et les réseaux Hybrid CNN compréhension temporelle. Ce tutoriel a fourni une compréhension fondamentale des RNN, de leurs limites et des solutions proposées par des architectures avancées comme LSTM et GRU. Le projet a démontré l'application de LSTM et GRU pour la prévision des cours des actions, mettant en évidence les performances supérieures de Gru dans ce cas spécifique. Le projet complet est disponible sur l'espace de travail DataCamp.

    N'oubliez pas de remplacer https://www.php.cn/link/cc6a6632b380f3f6a1c54b1222cd96c2 et https://www.php.cn/link/8708107b2ff5de15d0244471ae041fdb avec des liens réels vers les cours pertinents. Les URL d'image sont supposées être correctes et accessibles.

  • Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

    Déclaration de ce site Web
    Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
    Derniers articles par auteur
    Tutoriels populaires
    Plus>
    Derniers téléchargements
    Plus>
    effets Web
    Code source du site Web
    Matériel du site Web
    Modèle frontal