首页 > 其他 > 详细

Stanford NLP 第六课: Long Short Term Memory

时间:2018-06-05 22:54:52      阅读:455      评论:0      收藏:0      [点我收藏+]

RNN存在着梯度消失的问题, 难以学习长期的依赖关系。如何解决RNN的梯度消失问题? Long  Short Term Memory (LSTM) 就是解决这个问题的。

技术分享图片

上图是LSTM的一个整体结构。下面是LSTM的细节。下面的整个模块可以看成是一个Memory Cell。Cell的输入有三个, C_t-1, h_t-1, x_t, 输出有两个C_t, h_t; 三个门控组件。输入门i_t, 遗忘门f_t, 输出门o_t。 新的记忆 c^_t,  空心圆圈表示元素级相乘。

技术分享图片

技术分享图片

 

一个更加细节一点的示意图。

技术分享图片

 

LSTM是怎么解决梯度消失的问题的?(明天继续)

 

Stanford NLP 第六课: Long Short Term Memory

原文:https://www.cnblogs.com/yangkang77/p/9142237.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!