首页 > 其他 > 详细

深度学习中的Dropout

时间:2019-02-23 14:04:33      阅读:267      评论:0      收藏:0      [点我收藏+]

dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。

dropout是CNN中防止过拟合提高效果的一个大杀器,但对于其为何有效,却众说纷纭。
---------------------
作者:张雨石
来源:CSDN
原文:https://blog.csdn.net/stdcoutzyx/article/details/49022443
版权声明:本文为博主原创文章,转载请附上博文链接!

如果要训练一个大型的网络,训练数据很少的话,那么很容易引起过拟合(也就是在测试集上的精度很低),可能我们会想到用L2正则化、或者减小网络规模。然而深度学习领域大神Hinton,在2012年文献:《Improving neural networks by preventing co-adaptation of feature detectors》提出了,在每次训练的时候,让一半的特征检测器停过工作,这样可以提高网络的泛化能力,Hinton又把它称之为dropout。
---------------------
作者:hjimce
来源:CSDN
原文:https://blog.csdn.net/hjimce/article/details/50413257
版权声明:本文为博主原创文章,转载请附上博文链接!

深度学习中的Dropout

原文:https://www.cnblogs.com/w-guangyu/p/10422441.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!