首页 > 其他 > 详细

torch.optim.SGD

时间:2021-07-26 22:59:09      阅读:39      评论:0      收藏:0      [点我收藏+]

torch.optim.SGD返回一个优化器类。

sgd=torch.optim.SGD(paramater,lr=0.5);

lr表示学习率,paramater表示参数。

sgd.zero_grad()清除各点的梯度

技术分享图片

 

 

sgd.step()进行一次优化

torch.optim.SGD

原文:https://www.cnblogs.com/hahaah/p/15063037.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!