一、自动求导系统----torch.autograd
1、torch.autograd.backward 功能:自动求取梯度
2、torch.aurograd.grad 功能:求取梯度
小贴士:
(1)梯度不自动清零 grad.zero_()
(2)依赖于叶子结点的结点,requires_grad默认为True
(3)叶子结点不可执行in-place操作
二、逻辑回归
逻辑回归是线性的二分类模型
模型表达式: y = f(WX + b)
f(x) = 1/(1+eˆ(-x)) f(x)称为Sigmoid函数,也称为Logistic函数
class={0,0.5>y
1,0.5<y
深度之眼PyTorch训练营第二期 ---4、autograd与逻辑回归
原文:https://www.cnblogs.com/cola-1998/p/11695053.html