PyTorch加載模型model.load_state_dict()問題及解決
PyTorch加載模型model.load_state_dict()問題
希望將訓練好的模型加載到新的網絡上。
如上面題目所描述的,PyTorch在加載之前保存的模型參數(shù)的時候,遇到了問題。
Unexpected key(s) in state_dict: "module.features. ...".,Expected ".features....". 直接原因是key值名字不對應。
表明了加載過程中,期望獲得的key值為feature...,而不是module.features....。
這是由模型保存過程中導致的,模型應該是在DataParallel模式下面,也就是采用了多GPU訓練模型,然后直接保存的。
You probably saved the model using nn.DataParallel, which stores the model in module, and now you are trying to load it without . You can either add a nn.DataParallel temporarily in your network for loading purposes, or you can load the weights file, create a new ordered dict without the module prefix, and load it back.
解決上面的問題有三個辦法:
1. 對load的模型創(chuàng)建新的字典
去掉不需要的key值"module".
# original saved file with DataParallel state_dict = torch.load('checkpoint.pt') # 模型可以保存為pth文件,也可以為pt文件。 # create new OrderedDict that does not contain `module.` from collections import OrderedDict new_state_dict = OrderedDict() for k, v in state_dict.items(): name = k[7:] # remove `module.`,表面從第7個key值字符取到最后一個字符,正好去掉了module. new_state_dict[name] = v #新字典的key值對應的value為一一對應的值。 # load params model.load_state_dict(new_state_dict) # 從新加載這個模型。
2. 直接用空白''代替'module.'
model.load_state_dict({k.replace('module.',''):v for k,v in torch.load('checkpoint.pt').items()}) # 相當于用''代替'module.'。 #直接使得需要的鍵名等于期望的鍵名。
3. 最簡單的方法
加載模型之后,接著將模型DataParallel,此時就可以load_state_dict。
如果有多個GPU,將模型并行化,用DataParallel來操作。
這個過程會將key值加一個"module. ***"。
model = VGGNet() params=model.state_dict() #獲得模型的原始狀態(tài)以及參數(shù)。 for k,v in params.items(): print(k) #只打印key值,不打印具體參數(shù)。
4. 總結
從出錯顯示的問題就可以看出,key值不匹配,因此可以選擇多種方法,將模型參數(shù)加載進去。
這個方法通常會在load_state_dict過程中遇到。將訓練好的一個網絡參數(shù),移植到另外一個網絡上面,繼續(xù)訓練。
或者將訓練好的網絡checkpoint加載進模型,再次進行訓練??梢源蛴〕鰉odel state_dict來看出兩者的差別。
model = VGGNet() params=model.state_dict() #獲得模型的原始狀態(tài)以及參數(shù)。 for k,v in params.items(): print(k) #只打印key值,不打印具體參數(shù)。
features.0.0.weight
features.0.1.weight
features.1.conv.3.weight
features.1.conv.4.num_batches_tracked
model = VGGNet() checkpoint = torch.load('checkpoint.pt', map_location='cpu') # Load weights to resume from checkpoint。 # print('**************************************') # 這個方法能夠直接打印出你保存的checkpoint的鍵和值。 for k,v in checkpoint.items(): print(k) print("*****************************************")
輸出結果為:
module.features.0.0.weight",
"module.features.0.1.weight",
"module.features.0.1.bias
可以看出不匹配,模型的參數(shù)中,key值不同,多了module。
PS: 追加
在移植參數(shù)的過程中,對于出現(xiàn) .total_ops和.total_params結尾的參數(shù),可參考以下代碼:
from collections import OrderedDict checkpoint = torch.load( pretrained_model_file_path, map_location=(None if use_cuda and not remap_to_cpu else "cpu")) new_state_dict = OrderedDict() for k, v in checkpoint.items(): if not k.endswith('total_ops') and not k.endswith('total_params'): name = k[7:] new_state_dict[name] = v
最后
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
教你用Type Hint提高Python程序開發(fā)效率
本文通過介紹和實例教大家如何利用Type Hint來提升Python程序開發(fā)效率,對大家使用python開發(fā)很有幫助,有需要的參考學習。2016-08-08Python 找出出現(xiàn)次數(shù)超過數(shù)組長度一半的元素實例
這篇文章主要介紹了Python 找出出現(xiàn)次數(shù)超過數(shù)組長度一半的元素實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-05-05python時間日期函數(shù)與利用pandas進行時間序列處理詳解
python標準庫包含于日期(date)和時間(time)數(shù)據(jù)的數(shù)據(jù)類型,datetime、time以及calendar模塊會被經常用到,而pandas則可以對時間進行序列化排序2018-03-03