首页 > 其他 > 详细

神经网络梯度爆炸、消失问题、门控循环单元GRU、长短期记忆LSTM

时间:2019-08-30 00:43:33      阅读:107      评论:0      收藏:0      [点我收藏+]
  1. nn:w比1大,会造成激活函数、梯度爆炸。w比1小,梯度会消失。随机化初始权重有助于解决这个问题。
  2. RNN同样有梯度消失问题,反向传播时后面的梯度很难传到前面的层,从而影响到前面的层的计算。梯度爆炸会发生数值溢出,可以通过修剪、缩放来解决。
  3. GRU:记忆细胞C<t>的作用是提供记忆的能力。候选值C^<t>重写记忆细胞。更新门Γu是一个介于0和1之间的数,决定是否更新记忆细胞。相关Γr代表候选值和记忆细胞的相关性。
  4. LSTM:更新门,遗忘门,输出门。更新门和遗忘门给了记忆细胞选择权去维持旧的值和更新新的值。偷窥孔连接其实就是三个门值不仅取决于a<t-1>,x<t>,还取决于c<t-1>.
  5. GRU简单点,适合创建大型结构,计算性能快。LSTM更灵活,大多数人还是会选择LSTM。

神经网络梯度爆炸、消失问题、门控循环单元GRU、长短期记忆LSTM

原文:https://www.cnblogs.com/biwangwang/p/11432803.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!