首页 > 其他 > 详细

BN和Relu

时间:2019-11-10 20:24:26      阅读:228      评论:0      收藏:0      [点我收藏+]
  • Batch normalization + ReLU

批归一化(BN)可以抑制梯度爆炸/消失并加快训练速度

原论文认为批归一化的原理是:通过归一化操作使网络的每层特征的分布尽可能的稳定,从而减少Internal Covariate Shift

relu是目前应用最为广泛的激活函数,

由于其梯度要么是1,要么是0,可以有效抑制梯度爆炸/消失

通过BN和ReLU,目前的网络已经可以达到非常深

网络越深,提取的特征往往越抽象,越具有语义信息。过渡抽象的特征可能并不适合相对简单的任务。

BN和Relu

原文:https://www.cnblogs.com/yibeimingyue/p/11831360.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!