在 Pytorch 中节省一层的重量

原文标题Saving the weight of one layer in Pytorch

我想节省模型的重量,但不是这样的整个模型:

torch.save(model, 'model.pth')

但更确切地说,只有一层。例如,假设我定义了这样的一层:

self.conv_up3 = convrelu(256 + 512, 512, 3, 1)

如何仅节省这一层的重量。以及如何为这一层加载它。

原文链接:https://stackoverflow.com//questions/71577239/saving-the-weight-of-one-layer-in-pytorch

回复

我来回复
  • Umang Gupta的头像
    Umang Gupta 评论

    您可以执行以下操作来保存/获取特定层的参数:

    specific_params = self.conv_up3.state_dict()
    # save/manipulate `specific_params` as you want
    

    同样,要将参数加载到该特定层:

    self.conv_up3.load_state_dict(params)
    

    您可以这样做,因为每一层本身就是一个神经网络(nn.Module实例)。

    2年前 0条评论