pytorch 固定部分参数训练

Miracle 2019年5月6日21:05:59干货教程pytorch 固定部分参数训练已关闭评论2,9992796字阅读2分39秒阅读模式

应用场景: 在加载预训练模型之后,在原来的基础上添加一部分的网络,我们可以固定原来的参数,然后只训练我们添加的这部分网络,完了之后再全部训练.文章源自联网快讯-https://x1995.cn/5200.html

  1. class RESNET_attention(nn.Module):  
  2. def __init__(self, model, pretrained):  
  3. super(RESNET_attetnion, self).__init__()  
  4. self.resnet = model(pretrained)  
  5. for p in self.parameters():  
  6. p.requires_grad = False  
  7. self.f = nn.Conv2d(2048, 512, 1)  
  8. self.g = nn.Conv2d(2048, 512, 1)  
  9. self.h = nn.Conv2d(2048, 2048, 1)  
  10. self.softmax = nn.Softmax(-1)  
  11. self.gamma = nn.Parameter(torch.FloatTensor([0.0]))  
  12. self.avgpool = nn.AvgPool2d(7, stride=1)  
  13. self.resnet.fc = nn.Linear(2048, 10)  

这样就将for循环以上的参数固定, 只训练下面的参数(f,g,h,gamma,fc,等), 但是注意需要在optimizer中添加上这样的一句话filter(lambda p: p.requires_grad, model.parameters()
添加的位置为:
optimizer = optim.Adam(filter(lambda p: p.requires_grad, model.parameters()), lr=0.0001, betas=(0.9, 0.999), eps=1e-08, weight_decay=1e-5)文章源自联网快讯-https://x1995.cn/5200.html

Miracle
  • 本文由 发表于 2019年5月6日21:05:59