经常性神经网络(RNNS)是一种强大的人工神经网络(ANN)类型,用于苹果Siri和Google的语音搜索。它们通过内部记忆保留过去输入的独特能力使它们非常适合诸如股票价格预测,文本生成,转录和机器翻译等任务。与输入和输出是独立的传统神经网络不同,RNN输出取决于序列中的先前元素。此外,rnns跨网络层共享参数,优化梯度下降期间的重量和偏差调整。
上图说明了基本的RNN。在股票价格预测方案中,使用[45、56、45、49、50,...]之类的数据,每个输入(x0至XT)都包含了过去的值。例如,x0为45,x1为56,这些值有助于预测下一个序列元素。
,通过循环进行信息周期,使输出均与当前和上一个输入的函数。 src =“ https://img.php.cn/upload/article/000/000/000/174165793768541.jpg” alt =“ recurrent recurrent neural网络教程(rnn)”/> > > > > >
the Intut lay(x)的最初层(x),该层是simder tosives to sivers to sivering to sivil(compistion to siveristion to siviling to siviling to siviling in to sivive to siviling to sivil(a)。功能,权重和偏见。这些参数在隐藏的层上共享,创建一个单个循环图层,而不是多个不同的层。 RNNS通过时间(BPTT)而不是传统的反向传播来计算梯度。 BPTT由于共享参数而在每个时间步中汇总错误。rnns的类型在输入和输出长度方面具有灵活性,与具有单个输入和输出的FeedForward网络不同。这种适应性使RNN可以处理各种任务,包括音乐生成,情感分析和机器翻译。存在四种主要类型:
长短期内存(LSTM):高级RNN,旨在减轻消失/爆炸梯度。它的四个相互作用层有助于长期记忆力保留,使其适合机器翻译,语音合成等。
本节使用LSTM和GRU详细介绍了一个项目,以预测万事达卡股价。该代码利用图书馆,例如熊猫,numpy,matplotlib,scikit-learn和tensorflow。
(此处省略了原始输入中的详细代码示例,以概述以下核心步骤。
minmaxScaler
进行缩放,并重塑模型输入。 Hybrid CNN-RNN networks are increasingly used for tasks requiring both spatial and时间理解。本教程提供了对LSTM和GRU等高级体系结构提供的RNN,其局限性和解决方案的基本理解。该项目证明了LSTM和GRU在股票价格预测中的应用,在此特定情况下强调了GRU的出色表现。完整的项目可在Datacamp Workspace上找到。
记住替换 https://www.php.cn/link/link/cc6a66632b380f3f6a1c54b12222222cd966c2 <code> https://www.php.cn/link/8708107B2FF5DE15D02444471AE041FDB
带有指向相关课程的链接。假定图像URL是正确且可访问的。
以上是经常性神经网络教程(RNN)的详细内容。更多信息请关注PHP中文网其他相关文章!