首页 > 其他 > 详细

pytorch强行让batchsize变大(多次forward 1次更新)

时间:2019-10-07 22:38:06      阅读:649      评论:0      收藏:0      [点我收藏+]

1. 正常情况下是1次forward 1次更新,代码为:

optimizer.zerograd

y = model(x)

loss_mse = torch.MSE(x, y)

loss_mse.backward()

optimizer.step()

 

其实只需要加3行代码

2. 当想要让batchsize强行变大时(多次forward 1次更新),代码为:

if i_count == 1:

  optimizer.zerograd

y = model(x)                        

loss_mse = torch.MSE(x, y)        %这几行不变,相当于只是加了下面的3行

loss_mse

if i_ite % batchsize_loss == 0:

  optimizer.step()

  optimizer.zerograd

 

pytorch强行让batchsize变大(多次forward 1次更新)

原文:https://www.cnblogs.com/chinaevanliu/p/11632512.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!