首页 > Web开发 > 详细

循环神经网络 (Recurrent Neural Network, RNN)

时间:2020-12-20 20:25:33      阅读:31      评论:0      收藏:0      [点我收藏+]

1 RNN forward and backword Propagation

  RNN 中,每个时间步的输出都会利用到当前时间步的输入和上一个时间步输出的激活值。每个时间步中的参数是共享的。

技术分享图片

  可以看出输出值 y3 与输入值 x1、x2、x3 都有关。

技术分享图片

  其中 a0=0,函数 g 一般是 tanh、Relu、Sigmoid、softmax 等激活函数。还可以简写为:

技术分享图片

  Wa、ba、Wy、by 都是共享的参数。

技术分享图片

  损失函数:

技术分享图片

2. Examples of RNN architectures

技术分享图片

3. GRU (Gated Recurrent Unit)

  用一个门来控制 ct 的更新

技术分享图片

  Γu=0 时,c(t)=c(t-1),前面的值就被保留下来了,寻找更长时间的依赖,可以解决梯度消失的问题。
技术分享图片

   Full GRU:

技术分享图片

4. LSTM (Long short term memory) unit

技术分享图片

技术分享图片

 

循环神经网络 (Recurrent Neural Network, RNN)

原文:https://www.cnblogs.com/sun-a/p/14016046.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!