Pytorch 学习(1)自动求导: 自动微分 初体验
PyTorch 中所有神经网络的核心是 autograd 自动求导包。
官网上的例子:如果 Variable 是标量的形式(例如, 它包含一个元素数据), 不必指定任何参数给 backward()。
import torch
from torch.autograd import Variable
x= Variable(torch.ones(2,2),requires_grad =True)
print(x)
y =x +2
print(y)
print(y.grad_fn)
z= y*y*3
out =z.mean()
print(z,out)
out.backward()
print(x.grad)
运行结果为:
tensor([[ 1., 1.],
[ 1., 1.]])
tensor([[ 3., 3.],
[ 3., 3.]])
tensor([[ 27., 27.],
[ 27., 27.]]) tensor(27.)
tensor([[ 4.5000, 4.5000],
[ 4.5000, 4.5000]])
例2:如果Va