在 Pytorch 中节省一层的重量
pytorch 206
原文标题 :Saving the weight of one layer in Pytorch
我想节省模型的重量,但不是这样的整个模型:
torch.save(model, 'model.pth')
但更确切地说,只有一层。例如,假设我定义了这样的一层:
self.conv_up3 = convrelu(256 + 512, 512, 3, 1)
如何仅节省这一层的重量。以及如何为这一层加载它。