pytorch 固定部分参数训练

2019年5月6日21:05:59 发表评论 101

应用场景: 在加载预训练模型之后,在原来的基础上添加一部分的网络,我们可以固定原来的参数,然后只训练我们添加的这部分网络,完了之后再全部训练.

  1. class RESNET_attention(nn.Module):  
  2. def __init__(self, model, pretrained):  
  3. super(RESNET_attetnion, self).__init__()  
  4. self.resnet = model(pretrained)  
  5. for p in self.parameters():  
  6. p.requires_grad = False  
  7. self.f = nn.Conv2d(2048, 512, 1)  
  8. self.g = nn.Conv2d(2048, 512, 1)  
  9. self.h = nn.Conv2d(2048, 2048, 1)  
  10. self.softmax = nn.Softmax(-1)  
  11. self.gamma = nn.Parameter(torch.FloatTensor([0.0]))  
  12. self.avgpool = nn.AvgPool2d(7, stride=1)  
  13. self.resnet.fc = nn.Linear(2048, 10)  

这样就将for循环以上的参数固定, 只训练下面的参数(f,g,h,gamma,fc,等), 但是注意需要在optimizer中添加上这样的一句话filter(lambda p: p.requires_grad, model.parameters()
添加的位置为:
optimizer = optim.Adam(filter(lambda p: p.requires_grad, model.parameters()), lr=0.0001, betas=(0.9, 0.999), eps=1e-08, weight_decay=1e-5)

历史上的今天:

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: