首页 > Web开发 > 详细

课程二(Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization),第三周(Hyperparameter tuning, Batch Normalization and Programming Frameworks) —— 1.Practice Questions

时间:2017-12-21 23:59:05      阅读:1027      评论:0      收藏:0      [点我收藏+]

技术分享图片

技术分享图片

 

【中文翻译】

  2、每个 hyperparameter, 如果设置不佳, 会对训练产生巨大的负面影响, 所以所有的参数都同样重要, 可以很好地调整。真的还是假的?

技术分享图片

技术分享图片

技术分享图片

 【中文翻译】

   4、如果你认为β (hyperparameter 为动量) 在0.9 和0.99 之间, 以下是推荐的方法为 beta 的值抽样?

技术分享图片

技术分享图片

技术分享图片

技术分享图片

 

【中文翻译】

 8、以下哪一项关于γ和β在Batch Norm 中的陈述是真的?

   每个层都有一个全局值γ∈R 和一个全局值β∈R, 并适用于该层中的所有隐藏单元。  

  最优的值是技术分享图片和β = μ。  

  β和γ是算法的参数, 我们通过随机抽样进行调整。

  他们可以使用Adam, 动量梯度下降与,或 RMSprop训练, 不只是与梯度下降。

  它们设置给定层的线性变量 z [l] 的平均值和方差。

技术分享图片

技术分享图片

 

课程二(Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization),第三周(Hyperparameter tuning, Batch Normalization and Programming Frameworks) —— 1.Practice Questions

原文:http://www.cnblogs.com/hezhiyao/p/8082815.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!