首页 > 其他 > 详细

【深度学习】超参调节方式:Bayesian Opt

时间:2020-05-28 11:42:51      阅读:48      评论:0      收藏:0      [点我收藏+]

参考文章:https://zhuanlan.zhihu.com/p/76269142

参考文章:https://zhuanlan.zhihu.com/p/86386926

 
贝叶斯的优势:
1、适用于一次参数计算很慢的情况
2、优化的function没有导数信息
 
贝叶斯的劣势:
1、参数太多(high-dimension BO)
2、有太多的离散参数。
 
 
思路:
在X空间中找到 argmax f(x)
f(x)比较复杂,用比较简单的 a(x) 来估计。
a(x)需要估计在每个x的期望和方差
几个常用的 a(x)形式:
GP-UCB:  a(x) = miu(x) + sqrt(beta) * sigma(x)
EI :  比之前最好的大的期望,
Entropy Search(ES): 
 
问题:
1、高斯过程怎么看待离散参数?
2、TPE在做什么?

【深度学习】超参调节方式:Bayesian Opt

原文:https://www.cnblogs.com/yesuuu/p/12979096.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!