pytorch中構(gòu)建模型的3種方法詳解
可以使用以下3種方式構(gòu)建模型:
1,繼承nn.Module基類構(gòu)建自定義模型。
2,使用nn.Sequential按層順序構(gòu)建模型。
3,繼承nn.Module基類構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)。
其中 第1種方式最為常見,第2種方式最簡(jiǎn)單,第3種方式最為靈活也較為復(fù)雜。推薦使用第1種方式構(gòu)建模型。
一、繼承nn.Module基類構(gòu)建自定義模型
以下是繼承nn.Module基類構(gòu)建自定義模型的一個(gè)范例。模型中的用到的層一般在__init__函數(shù)中定義,然后在forward方法中定義模型的正向傳播邏輯。
from torch import nn class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(in_channels=3,out_channels=32,kernel_size = 3) self.pool1 = nn.MaxPool2d(kernel_size = 2,stride = 2) self.conv2 = nn.Conv2d(in_channels=32,out_channels=64,kernel_size = 5) self.pool2 = nn.MaxPool2d(kernel_size = 2,stride = 2) self.dropout = nn.Dropout2d(p = 0.1) self.adaptive_pool = nn.AdaptiveMaxPool2d((1,1)) self.flatten = nn.Flatten() self.linear1 = nn.Linear(64,32) self.relu = nn.ReLU() self.linear2 = nn.Linear(32,1) def forward(self,x): x = self.conv1(x) x = self.pool1(x) x = self.conv2(x) x = self.pool2(x) x = self.dropout(x) x = self.adaptive_pool(x) x = self.flatten(x) x = self.linear1(x) x = self.relu(x) y = self.linear2(x) return y net = Net() print(net)
from torchkeras import summary summary(net,input_shape= (3,32,32));
nn.Conv1d:普通一維卷積,常用于文本。參數(shù)個(gè)數(shù) = 輸入通道數(shù)×卷積核尺寸(如3)×卷積核個(gè)數(shù) + 卷積核尺寸(如3)=卷積核尺寸(如3乘3)x輸出通道數(shù)+輸出通道數(shù)(偏置數(shù)量)
nn.Conv2d:普通二維卷積,常用于圖像。參數(shù)個(gè)數(shù) = 輸入通道數(shù)×卷積核尺寸(如3乘3)×卷積核個(gè)數(shù) + 卷積核尺寸(如3乘3)。=卷積核尺寸(如3乘3)x輸入通道數(shù)x輸出通道數(shù)+輸出通道數(shù)(偏置數(shù)量)) 通過調(diào)整dilation參數(shù)大于1,可以變成空洞卷積,增加感受野。 通過調(diào)整groups參數(shù)不為1,可以變成分組卷積。分組卷積中每個(gè)卷積核僅對(duì)其對(duì)應(yīng)的一個(gè)分組進(jìn)行操作。 當(dāng)groups參數(shù)數(shù)量等于輸入通道數(shù)時(shí),相當(dāng)于tensorflow中的二維深度卷積層tf.keras.layers.DepthwiseConv2D。 利用分組卷積和1乘1卷積的組合操作,可以構(gòu)造相當(dāng)于Keras中的二維深度可分離卷積層tf.keras.layers.SeparableConv2D。
二、使用nn.Sequential按層順序構(gòu)建模型
使用nn.Sequential按層順序構(gòu)建模型無需定義forward方法。僅僅適合于簡(jiǎn)單的模型。以下是使用nn.Sequential搭建模型的一些等價(jià)方法。
利用add_module方法
net = nn.Sequential() net.add_module("conv1",nn.Conv2d(in_channels=3,out_channels=32,kernel_size = 3)) net.add_module("pool1",nn.MaxPool2d(kernel_size = 2,stride = 2)) net.add_module("conv2",nn.Conv2d(in_channels=32,out_channels=64,kernel_size = 5)) net.add_module("pool2",nn.MaxPool2d(kernel_size = 2,stride = 2)) net.add_module("dropout",nn.Dropout2d(p = 0.1)) net.add_module("adaptive_pool",nn.AdaptiveMaxPool2d((1,1))) net.add_module("flatten",nn.Flatten()) net.add_module("linear1",nn.Linear(64,32)) net.add_module("relu",nn.ReLU()) net.add_module("linear2",nn.Linear(32,1)) print(net)
利用變長(zhǎng)參數(shù)
這種方式構(gòu)建時(shí)不能給每個(gè)層指定名稱。
net = nn.Sequential( nn.Conv2d(in_channels=3,out_channels=32,kernel_size = 3), nn.MaxPool2d(kernel_size = 2,stride = 2), nn.Conv2d(in_channels=32,out_channels=64,kernel_size = 5), nn.MaxPool2d(kernel_size = 2,stride = 2), nn.Dropout2d(p = 0.1), nn.AdaptiveMaxPool2d((1,1)), nn.Flatten(), nn.Linear(64,32), nn.ReLU(), nn.Linear(32,1) ) print(net)
利用OrderedDict
鍵值對(duì)形式:鍵為層的名字,值為層的定義
from collections import OrderedDict net = nn.Sequential(OrderedDict( [("conv1",nn.Conv2d(in_channels=3,out_channels=32,kernel_size = 3)), ("pool1",nn.MaxPool2d(kernel_size = 2,stride = 2)), ("conv2",nn.Conv2d(in_channels=32,out_channels=64,kernel_size = 5)), ("pool2",nn.MaxPool2d(kernel_size = 2,stride = 2)), ("dropout",nn.Dropout2d(p = 0.1)), ("adaptive_pool",nn.AdaptiveMaxPool2d((1,1))), ("flatten",nn.Flatten()), ("linear1",nn.Linear(64,32)), ("relu",nn.ReLU()), ("linear2",nn.Linear(32,1)) ]) ) print(net)
三、繼承nn.Module基類構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝
當(dāng)模型的結(jié)構(gòu)比較復(fù)雜時(shí),我們可以應(yīng)用模型容器(nn.Sequential,nn.ModuleList,nn.ModuleDict)對(duì)模型的部分結(jié)構(gòu)進(jìn)行封裝。
這樣做會(huì)讓模型整體更加有層次感,有時(shí)候也能減少代碼量。(復(fù)雜模型的時(shí)候比較常用)注意,在下面的范例中我們每次僅僅使用一種模型容器,但實(shí)際上這些模型容器的使用是非常靈活的,可以在一個(gè)模型中任意組合任意嵌套使用。
相當(dāng)于結(jié)合以上兩種方式。
nn.Sequential作為模型容器
class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv = nn.Sequential( nn.Conv2d(in_channels=3,out_channels=32,kernel_size = 3), nn.MaxPool2d(kernel_size = 2,stride = 2), nn.Conv2d(in_channels=32,out_channels=64,kernel_size = 5), nn.MaxPool2d(kernel_size = 2,stride = 2), nn.Dropout2d(p = 0.1), nn.AdaptiveMaxPool2d((1,1)) ) self.dense = nn.Sequential( nn.Flatten(), nn.Linear(64,32), nn.ReLU(), nn.Linear(32,1) ) def forward(self,x): x = self.conv(x) y = self.dense(x) return y net = Net() print(net)
nn.ModuleList作為模型容器
注意下面中的ModuleList不能用Python中的列表代替。(即不用省略)
class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.layers = nn.ModuleList([ nn.Conv2d(in_channels=3,out_channels=32,kernel_size = 3), nn.MaxPool2d(kernel_size = 2,stride = 2), nn.Conv2d(in_channels=32,out_channels=64,kernel_size = 5), nn.MaxPool2d(kernel_size = 2,stride = 2), nn.Dropout2d(p = 0.1), nn.AdaptiveMaxPool2d((1,1)), nn.Flatten(), nn.Linear(64,32), nn.ReLU(), nn.Linear(32,1)] ) def forward(self,x): for layer in self.layers: x = layer(x) return x net = Net() print(net)
nn.ModuleDict作為模型容器
注意下面中的ModuleDict不能用Python中的字典代替。
class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.layers_dict = nn.ModuleDict({"conv1":nn.Conv2d(in_channels=3,out_channels=32,kernel_size = 3), "pool": nn.MaxPool2d(kernel_size = 2,stride = 2), "conv2":nn.Conv2d(in_channels=32,out_channels=64,kernel_size = 5), "dropout": nn.Dropout2d(p = 0.1), "adaptive":nn.AdaptiveMaxPool2d((1,1)), "flatten": nn.Flatten(), "linear1": nn.Linear(64,32), "relu":nn.ReLU(), "linear2": nn.Linear(32,1) }) def forward(self,x): layers = ["conv1","pool","conv2","pool","dropout","adaptive", "flatten","linear1","relu","linear2","sigmoid"] for layer in layers: x = self.layers_dict[layer](x) # 只找有的 sigmoid是沒有的 return x net = Net() print(net)
參考:https://github.com/lyhue1991/eat_pytorch_in_20_days
到此這篇關(guān)于pytorch中構(gòu)建模型的3種方法的文章就介紹到這了,更多相關(guān)pytorch構(gòu)建模型內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python 數(shù)字類型和字符串類型的相互轉(zhuǎn)換實(shí)例
今天小編就為大家分享一篇python 數(shù)字類型和字符串類型的相互轉(zhuǎn)換實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2018-07-07python協(xié)程之yield和yield?from實(shí)例詳解
Python在并發(fā)處理上不僅提供了多進(jìn)程和多線程的處理,還包括了協(xié)程,下面這篇文章主要給大家介紹了關(guān)于python協(xié)程之yield和yield?from的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-12-12解決python2中unicode()函數(shù)在python3中報(bào)錯(cuò)的問題
這篇文章主要介紹了在python2中unicode()函數(shù)在python3中報(bào)錯(cuò)的解決方案,希望給大家做個(gè)參考,下次出現(xiàn)這個(gè)問題的時(shí)候,也知道如何應(yīng)對(duì)2021-05-05python實(shí)現(xiàn)Dijkstra算法的最短路徑問題
這篇文章主要介紹了python實(shí)現(xiàn)Dijkstra算法的最短路徑問題,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2019-06-06利用PyQt中的QThread類實(shí)現(xiàn)多線程
本文主要給大家分享的是python實(shí)現(xiàn)多線程及線程間通信的簡(jiǎn)單方法,非常的實(shí)用,有需要的小伙伴可以參考下2020-02-02pandas 轉(zhuǎn)換成行列表進(jìn)行讀取與Nan處理的方法
今天小編就為大家分享一篇pandas 轉(zhuǎn)換成行列表進(jìn)行讀取與Nan處理的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2018-10-10PyTorch中關(guān)于tensor.repeat()的使用
這篇文章主要介紹了PyTorch中關(guān)于tensor.repeat()的使用,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-11-11