Pytorch中實現只匯入部分模型引數的方式
我們在做遷移學習,或者在分割,檢測等任務想使用預訓練好的模型,同時又有自己修改之後的結構,使得模型檔案儲存的引數,有一部分是不需要的(don't expected)。我們搭建的網路對儲存檔案來說,有一部分引數也是沒有的(missed)。如果依舊使用torch.load(model.state_dict())的辦法,就會出現 xxx expected,xxx missed類似的錯誤。那麼在這種情況下,該如何匯入模型呢?
好在Pytorch中的模型引數使用字典儲存的,鍵是引數的名稱,值是引數的具體數值。我們使用model.state_dict()獲得這個字典,之後就能利用引數名稱來實現匯入。
請看下面的一個例子。
我們先搭建一個小小的網路。
import torch as t from torch.nn import Module from torch import nn from torch.nn import functional as F class Net(Module): def __init__(self): super(Net,self).__init__() self.conv1 = nn.Conv2d(3,32,3,1) self.conv2 = nn.Conv2d(32,1) self.w = nn.Parameter(t.randn(3,10)) for p in self.children(): nn.init.xavier_normal_(p.weight.data) nn.init.constant_(p.bias.data,0) def forward(self,x): out = self.conv1(x) out = self.conv2(x) out = F.avg_pool2d(out,(out.shape[2],out.shape[3])) out = F.linear(out,weight=self.w) return out
然後我們儲存這個網路的初始值。
model = Net() t.save(model.state_dict(),'xxx.pth')
現在我們將Net修改一下,多加幾個卷積層,但並不加入到forward中,僅僅出於少些幾行的目的。
import torch as t from torch.nn import Module from torch import nn from torch.nn import functional as F class Net(Module): def __init__(self): super(Net,1) self.conv3 = nn.Conv2d(3,64,1) self.conv4 = nn.Conv2d(64,1) for p in self.children(): nn.init.xavier_normal_(p.weight.data) nn.init.constant_(p.bias.data,0) self.w = nn.Parameter(t.randn(3,10)) def forward(self,weight=self.w) return out
我們現在試著匯入之前儲存的模型引數。
path = 'xxx.pth' model = Net() model.load_state_dict(t.load(path)) ''' RuntimeError: Error(s) in loading state_dict for Net: Missing key(s) in state_dict: "conv3.weight","conv3.bias","conv4.weight","conv4.bias". '''
出現了沒有在模型檔案中找到error中的關鍵字的錯誤。
現在我們這樣匯入模型
path = 'xxx.pth' model = Net() save_model = t.load(path) model_dict = model.state_dict() state_dict = {k:v for k,v in save_model.items() if k in model_dict.keys()} print(state_dict.keys()) # dict_keys(['w','conv1.weight','conv1.bias','conv2.weight','conv2.bias']) model_dict.update(state_dict) model.load_state_dict(model_dict)
看看上面的程式碼,很容易弄明白。其中model_dict.update的作用是更新程式碼中搭建的模型引數字典。為啥更新我其實並不清楚,但這一步驟是必須的,否則還會報錯。
為了弄清楚為什麼要更新model_dict,我們不妨分別輸出state_dict和model_dict的關鍵值看一看。
for k in state_dict.keys(): print(k) ''' w conv1.weight conv1.bias conv2.weight conv2.bias ''' for k in model_dict.keys(): print(k) ''' w conv1.weight conv1.bias conv2.weight conv2.bias conv3.weight conv3.bias conv4.weight conv4.bias '''
這個結果也是預料之中的,所以我猜測,update之後,model_dict和state_dict中具有相同鍵的值已經同步了。updata的目的就是使model_dict帶有state_dict中都具有的那一部分引數的值,對於model_dict中有的,但是save_dict中沒有的引數,值不改變,引數仍然使用初始值。
以上這篇Pytorch中實現只匯入部分模型引數的方式就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。