首页 > 其他 > 详细

理解RNN

时间:2019-03-06 22:52:58      阅读:190      评论:0      收藏:0      [点我收藏+]

摘自:https://zybuluo.com/hanbingtao/note/541458

语言模型就是这样的东西:给定一个一句话前面的部分,预测接下来最有可能的一个词是什么。

语言模型是对一种语言的特征进行建模

RNN理论上可以往前看(往后看)任意多个词。

循环层:  技术分享图片

输出层:  技术分享图片

循环层和全连接层的区别就是循环层多了一个权重矩阵W。这个W把前一层的循环层输出引入到这一层

技术分享图片

环神经网络的输出值,是受前面历次输入值影响的,这就是为什么循环神经网络可以往前看任意多个输入值的原因。

双向RNN :其实就是在正方向和反方向都建立一个RNN循环层

正向计算时,隐藏层的值与S(t-1)和S(t)有关;反向计算时,隐藏层的值与S(t),和S(t+1)有关;最终的输出取决于正向和反向计算的加和

正向计算和反向计算不共享权重;

BTPP算法:

技术分享图片

第二步算误差函数对加权和的偏导数是为了最后求反向传播的梯度:

技术分享图片

式4就是将误差项传递到上一层算法。

第三步:

技术分享图片

最终的梯度是各个时刻的梯度之和(直接用这个结论,结论的证明没有看):技术分享图片

 

 梯度爆炸与消失:

技术分享图片

 

理解RNN

原文:https://www.cnblogs.com/yttas/p/10486401.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!