pytorch基础-使用 TORCH.AUTOGRAD 进行自动微分(5)
在训练神经网络时,最常用的算法是反向传播。在该算法中,参数(模型权重)根据损失函数相对于给定参数的梯度进行调整。为了计算这些梯度,Pytorch有一个名为 torch.autograd 的内置微分引擎。它支持自动计算任何计算图形的梯度。本例中考虑最简单的单层神经网络,输入x,参数w和b,以及一些损失函数。可通过以下方式在PyTorch中定义:import torchx = torch.ones(5) # input tensor,返回一个全为1 的张量,形状由可变参数sizes定义y = to