首页 > 其他 > 详细

【转载】 PyTorch学习之六个学习率调整策略

时间:2019-03-30 22:59:37      阅读:962      评论:0      收藏:0      [点我收藏+]

原文地址:

https://blog.csdn.net/shanglianlm/article/details/85143614

 

 

 

--------------------------------------------------------------------------------

 

 

 

PyTorch学习率调整策略通过torch.optim.lr_scheduler接口实现。PyTorch提供的学习率调整策略分为三大类,分别是

a. 有序调整:等间隔调整(Step),按需调整学习率(MultiStep),指数衰减调整(Exponential)和 余弦退火CosineAnnealing。
b. 自适应调整:自适应调整学习率 ReduceLROnPlateau。
c. 自定义调整:自定义调整学习率 LambdaLR。

 

 

1 等间隔调整学习率 StepLR

等间隔调整学习率,调整倍数为 gamma 倍,调整间隔为 step_size。间隔单位是step。需要注意的是, step 通常是指 epoch,不要弄成 iteration 了。 

torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)

 

 

参数:

step_size(int)- 学习率下降间隔数,若为 30,则会在 30、 60、 90…个 step 时,将学习率调整为 lr*gamma。

gamma(float)
- 学习率调整倍数,默认为 0.1 倍,即下降 10 倍。
last_epoch(int)
- 上一个 epoch 数,这个变量用来指示学习率是否需要调整。
当last_epoch 符合设定的间隔时,就会对学习率进行调整。当为-1 时,学习率设置为初始值。

 

【转载】 PyTorch学习之六个学习率调整策略

原文:https://www.cnblogs.com/devilmaycry812839668/p/10629578.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!