首页 > 其他 > 详细

Batch Norm 对神经网络中的每一层进行正则化(未完成)

时间:2018-04-27 00:11:22      阅读:586      评论:0      收藏:0      [点我收藏+]

这个算法主要是解决了每一层中的正则化问题

其实我觉得这东西很鸡肋,因为我输入已经归一化了

然后初始的w,b也很小

每一层的输出肯定也很小

使用Batch Norm反而会加大训练时间,弱化神经网络中参数的作用

技术分享图片

 

 z(i)是这一层神经网络中第i个神经元,经过激活函数的输出

为了是下一层的输入比较相近,我们就需要使用Batch Norm

 

Batch Norm 对神经网络中的每一层进行正则化(未完成)

原文:https://www.cnblogs.com/shensobaolibin/p/8955701.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!