pytorch載入預(yù)訓(xùn)練模型后,實(shí)現(xiàn)訓(xùn)練指定層
1、有了已經(jīng)訓(xùn)練好的模型參數(shù),對(duì)這個(gè)模型的某些層做了改變,如何利用這些訓(xùn)練好的模型參數(shù)繼續(xù)訓(xùn)練:
pretrained_params = torch.load('Pretrained_Model') model = The_New_Model(xxx) model.load_state_dict(pretrained_params.state_dict(), strict=False)
strict=False 使得預(yù)訓(xùn)練模型參數(shù)中和新模型對(duì)應(yīng)上的參數(shù)會(huì)被載入,對(duì)應(yīng)不上或沒(méi)有的參數(shù)被拋棄。
2、如果載入的這些參數(shù)中,有些參數(shù)不要求被更新,即固定不變,不參與訓(xùn)練,需要手動(dòng)設(shè)置這些參數(shù)的梯度屬性為Fasle,并且在optimizer傳參時(shí)篩選掉這些參數(shù):
# 載入預(yù)訓(xùn)練模型參數(shù)后... for name, value in model.named_parameters(): if name 滿足某些條件: value.requires_grad = False # setup optimizer params = filter(lambda p: p.requires_grad, model.parameters()) optimizer = torch.optim.Adam(params, lr=1e-4)
將滿足條件的參數(shù)的 requires_grad 屬性設(shè)置為False, 同時(shí) filter 函數(shù)將模型中屬性 requires_grad = True 的參數(shù)帥選出來(lái),傳到優(yōu)化器(以Adam為例)中,只有這些參數(shù)會(huì)被求導(dǎo)數(shù)和更新。
3、如果載入的這些參數(shù)中,所有參數(shù)都更新,但要求一些參數(shù)和另一些參數(shù)的更新速度(學(xué)習(xí)率learning rate)不一樣,最好知道這些參數(shù)的名稱都有什么:
# 載入預(yù)訓(xùn)練模型參數(shù)后... for name, value in model.named_parameters(): print(name) # 或 print(model.state_dict().keys())
假設(shè)該模型中有encoder,viewer和decoder兩部分,參數(shù)名稱分別是:
'encoder.visual_emb.0.weight', 'encoder.visual_emb.0.bias', 'viewer.bd.Wsi', 'viewer.bd.bias', 'decoder.core.layer_0.weight_ih', 'decoder.core.layer_0.weight_hh',
假設(shè)要求encode、viewer的學(xué)習(xí)率為1e-6, decoder的學(xué)習(xí)率為1e-4,那么在將參數(shù)傳入優(yōu)化器時(shí):
ignored_params = list(map(id, model.decoder.parameters())) base_params = filter(lambda p: id(p) not in ignored_params, model.parameters()) optimizer = torch.optim.Adam([{'params':base_params,'lr':1e-6}, {'params':model.decoder.parameters()} ], lr=1e-4, momentum=0.9)
代碼的結(jié)果是除decoder參數(shù)的learning_rate=1e-4 外,其他參數(shù)的額learning_rate=1e-6。
在傳入optimizer時(shí),和一般的傳參方法torch.optim.Adam(model.parameters(), lr=xxx) 不同,參數(shù)部分用了一個(gè)list, list的每個(gè)元素有params和lr兩個(gè)鍵值。如果沒(méi)有 lr則應(yīng)用Adam的lr屬性。Adam的屬性除了lr, 其他都是參數(shù)所共有的(比如momentum)。
以上這篇pytorch載入預(yù)訓(xùn)練模型后,實(shí)現(xiàn)訓(xùn)練指定層就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
參考:
相關(guān)文章
python numpy函數(shù)中的linspace創(chuàng)建等差數(shù)列詳解
numpy.linspace是用于創(chuàng)建一個(gè)一維數(shù)組,并且是等差數(shù)列構(gòu)成的一維數(shù)組,下面這篇文章主要給大家介紹了關(guān)于python numpy函數(shù)中的linspace創(chuàng)建等差數(shù)列的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),需要的朋友可以參考下。2017-10-10安裝conda搭建python環(huán)境保姆級(jí)教程(超詳細(xì)!)
這篇文章主要給大家介紹了關(guān)于安裝conda搭建python環(huán)境保姆級(jí)教程的相關(guān)資料,conda可以理解為一個(gè)工具,也是一個(gè)可執(zhí)行命令,其核心功能是包管理和環(huán)境管理,需要的朋友可以參考下2023-11-11Python中函數(shù)參數(shù)調(diào)用方式分析
這篇文章主要介紹了Python中函數(shù)參數(shù)調(diào)用方式,結(jié)合實(shí)例形式分析了Python函數(shù)參數(shù)定義與使用的四種常見(jiàn)操作方法,需要的朋友可以參考下2018-08-08python用什么編輯器進(jìn)行項(xiàng)目開(kāi)發(fā)
在本篇文章里小編給大家整理的是一篇關(guān)于python開(kāi)發(fā)用的編輯器詳細(xì)介紹,有需要的朋友們可以參考下哎。2020-06-06Django之Mode的外鍵自關(guān)聯(lián)和引用未定義的Model方法
今天小編就為大家分享一篇Django之Mode的外鍵自關(guān)聯(lián)和引用未定義的Model方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-12-12Python實(shí)現(xiàn)的KMeans聚類算法實(shí)例分析
這篇文章主要介紹了Python實(shí)現(xiàn)的KMeans聚類算法,結(jié)合實(shí)例形式較為詳細(xì)的分析了KMeans聚類算法概念、原理、定義及使用相關(guān)操作技巧,需要的朋友可以參考下2018-12-12Python PyQt5實(shí)現(xiàn)拖放效果的原理詳解
這篇文章主要為大家詳細(xì)介紹了Python PyQt5中拖放效果的實(shí)現(xiàn)原理與實(shí)現(xiàn)代碼,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以了解一下2022-11-11python3基于OpenCV實(shí)現(xiàn)證件照背景替換
這篇文章主要為大家詳細(xì)介紹了python3基于OpenCV實(shí)現(xiàn)證件照背景替換,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-07-07