pytorch 實現(xiàn)模型不同層設置不同的學習率方式
在目標檢測的模型訓練中, 我們通常都會有一個特征提取網(wǎng)絡backbone, 例如YOLO使用的darknet SSD使用的VGG-16。
為了達到比較好的訓練效果, 往往會加載預訓練的backbone模型參數(shù), 然后在此基礎上訓練檢測網(wǎng)絡, 并對backbone進行微調(diào), 這時候就需要為backbone設置一個較小的lr。
class net(torch.nn.Module):
def __init__(self):
super(net, self).__init__()
# backbone
self.backbone = ...
# detect
self....
在設置optimizer時, 只需要參數(shù)分為兩個部分, 并分別給定不同的學習率lr。
base_params = list(map(id, net.backbone.parameters()))
logits_params = filter(lambda p: id(p) not in base_params, net.parameters())
params = [
{"params": logits_params, "lr": config.lr},
{"params": net.backbone.parameters(), "lr": config.backbone_lr},
]
optimizer = torch.optim.SGD(params, momentum=config.momentum, weight_decay=config.weight_decay)
以上這篇pytorch 實現(xiàn)模型不同層設置不同的學習率方式就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
Python簡單實現(xiàn)子網(wǎng)掩碼轉(zhuǎn)換的方法
這篇文章主要介紹了Python簡單實現(xiàn)子網(wǎng)掩碼轉(zhuǎn)換的方法,涉及Python字符串相關操作技巧,需要的朋友可以參考下2016-04-04
基于python for in if 連著寫與分開寫的區(qū)別說明
這篇文章主要介紹了基于python for in if 連著寫與分開寫的區(qū)別說明,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2021-03-03
PyTorch模型轉(zhuǎn)TensorRT是怎么實現(xiàn)的?
今天給大家?guī)淼氖顷P于Python的相關知識,文章圍繞著PyTorch模型轉(zhuǎn)TensorRT是怎么實現(xiàn)的展開,文中有非常詳細的介紹及代碼示例,需要的朋友可以參考下2021-06-06
python網(wǎng)絡爬蟲selenium打開多窗口與切換頁面的實現(xiàn)
本文主要介紹了python網(wǎng)絡爬蟲selenium打開多窗口與切換頁面的實現(xiàn),文中通過示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2022-01-01
在pandas多重索引multiIndex中選定指定索引的行方法
今天小編就為大家分享一篇在pandas多重索引multiIndex中選定指定索引的行方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-11-11

