首页 > 其他 > 详细

RNN 训练时梯度爆炸和梯度消失的理解

时间:2019-10-18 16:06:26      阅读:98      评论:0      收藏:0      [点我收藏+]

梯度爆炸

技术分享图片

比方说当前点刚好在悬崖边上, 这个时候计算这个点的斜率就会变得非常大, 我们跟新的时候是按 斜率 × 学习率 来的, 那么这时候参数的跟新就会非常非常大, loss也会非常大

应对办法就是 当斜率超过某个值比如15时, 设定斜率为15.

造成梯度爆炸的原因并不是来自激活函数 --- sigmoid , 如果把激活函数换为 ReLU 通常模型表现会更差

梯度消失

技术分享图片

可以理解为 RNN 把 weight 变化的程度放大了

RNN 训练时梯度爆炸和梯度消失的理解

原文:https://www.cnblogs.com/larkiisready/p/11698445.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!