首页 > 其他 > 详细

深度神经网络的初始化不应该只做一次

时间:2019-06-14 11:37:05      阅读:110      评论:0      收藏:0      [点我收藏+]

深度神经网络的初始化不应该只做一次

读完彩票假设和超级掩模,结合一些强化学习和传统模拟退火算法的经验,有所感悟。

BP过程只是在不断加强初始化时靠运气碰到的那些好的结构/权重组合,而那些可以被掩模删掉的路径呢?如果持续,渐进的再随机初始化,是否能挖掘出新的黑马呢?

自由经济的实践中,这个假设是成立的,会有持续的新公司诞生,其中的部分是适应时代的,会壮大。

 

再次大胆猜测,给模型权重周期性的引入一些再随机将大大改善参数利用率,规律满足:

在超级掩模论文中所述会被保留的权重,其引入的随机扰动小。

在超级掩模论文中所述会被遮蔽的权重,其引入的随机扰动大。

这个随机量的大小之间是连续的,特性服从模拟退火算法,兼顾创新与传统。

 

预期参数效率可以再提高一个数量级。

 

争取抽时间验证一下。

 

深度神经网络的初始化不应该只做一次

原文:https://www.cnblogs.com/robird/p/11022402.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!