Wiederkehrende neuronale Netzwerke (RNNs) sind eine leistungsstarke Art des künstlichen neuronalen Netzwerks (ANN), das in Anwendungen wie Apples Siri und Googles Sprachsuche verwendet wird. Ihre einzigartige Fähigkeit, frühere Eingaben durch interne Speicher zu behalten, macht sie ideal für Aufgaben wie die Vorhersage von Aktienkurs, die Textgenerierung, die Transkription und die maschinelle Übersetzung. Im Gegensatz zu herkömmlichen neuronalen Netzwerken, in denen Eingänge und Ausgaben unabhängig sind, hängen RNN -Ausgänge in einer Sequenz von früheren Elementen ab. Darüber hinaus teilen sich RNNs Parameter über Netzwerkschichten und optimieren das Gewicht und die Verzerrungsanpassungen während des Gradientenabfalls. />
Das obige Diagramm veranschaulicht eine grundlegende RNN. In einem Aktienkurs -Prognose -Szenario unter Verwendung von Daten wie [45, 56, 45, 49, 50, ...] enthält jede Eingabe (x0 bis XT) vergangene Werte. Zum Beispiel wäre x0 45, x1 56, und diese Werte tragen zur Vorhersage des nächsten Sequenzelements bei. src="https://img.php.cn/upload/article/000/000/000/174165793768541.jpg" alt=" Recurrent Neural Network Tutorial (RNN) " />
The input layer (X) processes the initial input, passing it to the middle layer (A), which comprises multiple hidden layers with activation Funktionen, Gewichte und Vorurteile. Diese Parameter werden über die verborgene Ebene geteilt, wodurch anstelle von mehreren unterschiedlichen Schichten eine einzelne Schleifenschicht erzeugt wird. RNNs verwenden eine Backpropagation während der Zeit (BPTT) anstelle einer herkömmlichen Backpropagation, um Gradienten zu berechnen. BPTT setzt Fehler bei jedem Zeitschritt aufgrund der gemeinsam genutzten Parameter zusammen. Diese Anpassungsfähigkeit ermöglicht es RNNs, verschiedene Aufgaben zu erledigen, einschließlich Musikgenerierung, Stimmungsanalyse und maschineller Übersetzung. Es gibt vier Haupttypen:
Schlüsselunterschiede:
Lösungen umfassen das Reduzieren versteckter Schichten oder die Verwendung fortschrittlicher Architekturen wie LSTM und Gru. LSTM und Gru adressieren dies durch Aktivieren der Aufbewahrung von Informationen über verlängerte Zeiträume.
In diesem Abschnitt wird ein Projekt verwendet, das LSTM und Gru zur Vorhersage von MasterCard -Aktienkursen verwendet. Der Code verwendet Bibliotheken wie Pandas, Numpy, Matplotlib, Scikit-Learn und TensorFlow. Vorverarbeitung: Teilen Sie die Daten in Trainings- und Testsätze auf, skalieren Sie mit minmaxscaler
und form für Modelleingaben. Modell: Bauen und trainieren Sie ein Gru -Modell mit ähnlicher Architektur.
https://www.php.cn/link/8708107b2ff5de15d0244471ae041fdb
mit tatsächlichen Links zu den entsprechenden Kursen. Es wird angenommen, dass die Bild -URLs korrekt und zugänglich sind. Das obige ist der detaillierte Inhalt vonWiederkehrendes Tutorial für neuronales Netzwerk (RNN). Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!