pytorch 實現(xiàn)打印模型的參數(shù)值
對于簡單的網(wǎng)絡(luò)
例如全連接層Linear
可以使用以下方法打印linear層:
fc = nn.Linear(3, 5) params = list(fc.named_parameters()) print(params.__len__()) print(params[0]) print(params[1])
輸出如下:

由于Linear默認(rèn)是偏置bias的,所有參數(shù)列表的長度是2。第一個存的是全連接矩陣,第二個存的是偏置。
對于稍微復(fù)雜的網(wǎng)絡(luò)
例如MLP
mlp = nn.Sequential(
nn.Dropout(p=0.3),
nn.Linear(1024, 256),
nn.Linear(256, 64),
nn.Linear(64, 16),
nn.Linear(16, 1)
)
params = list(mlp.named_parameters())
print(params.__len__())
print(params[0])
print(params[1])
print(params[2])
print(params[3])
輸出:


可以發(fā)現(xiàn),堆疊起來的網(wǎng)絡(luò),參數(shù)是依次放置的。先是全連接的權(quán)重,然后偏置。然后是下一層網(wǎng)絡(luò)的權(quán)重+偏置。依次進行下去。
這里有4層fc,4*2=8.所以一共有8個參數(shù)矩陣。
以上這篇pytorch 實現(xiàn)打印模型的參數(shù)值就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
詳談pandas中agg函數(shù)和apply函數(shù)的區(qū)別
下面小編就為大家分享一篇詳談pandas中agg函數(shù)和apply函數(shù)的區(qū)別,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-04-04
Python+Appium實現(xiàn)自動化清理微信僵尸好友的方法
這篇文章主要介紹了Python+Appium實現(xiàn)自動化清理微信僵尸好友的方法,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-02-02

