Batch 和Epoch
神经网络中参数更新常用随机梯度下降法,batch控制模型内部参数更新之前训练样本的个数;Epoch有一个或多个barch组成,控制通过训练数据集的完整传递的次数。
案例:200个样本的数据集,Batch为5,epoch为1000,。意味着有40个batch,每批5个样本训练后,模型权重会更新,一个epoch会有40个batch或40个模型更新。1000个epoch意味着整体数据集传递1000次,整个训练过程中,共有40000个batch。
原文:https://www.cnblogs.com/Christbao/p/12259259.html