pytorch1.0中torch.nn.Conv2d用法詳解
Conv2d的簡(jiǎn)單使用
torch 包 nn 中 Conv2d 的用法與 tensorflow 中類似,但不完全一樣。
在 torch 中,Conv2d 有幾個(gè)基本的參數(shù),分別是
in_channels 輸入圖像的深度
out_channels 輸出圖像的深度
kernel_size 卷積核大小,正方形卷積只為單個(gè)數(shù)字
stride 卷積步長(zhǎng),默認(rèn)為1
padding 卷積是否造成尺寸丟失,1為不丟失
與tensorflow不一樣的是,pytorch中的使用更加清晰化,我們可以使用這種方法定義輸入與輸出圖像的深度并同時(shí)指定使用的卷積核的大小。
而我們的輸入則由經(jīng)由 Conv2d 定義的參數(shù)傳入,如下所示:
# 定義一個(gè)輸入深度為1,輸出為6,卷積核大小為 3*3 的 conv1 變量 self.conv1 = nn.Conv2d(1, 6, 3) # 傳入原始輸入x,以獲得長(zhǎng)寬與x相當(dāng),深度為6的卷積部分 x = self.conv1(x)
要注意的是,Conv2d中所需要的輸入順序?yàn)?/p>
batchsize, nChannels, Height, Width
其他的簡(jiǎn)單使用
同樣的,與 Conv2d 類似的函數(shù)還有很多,類似 max_pool2d、relu等等,他們的使用方法與 Conv2d 極為類似,如下所示:
# relu函數(shù)的使用 F.relu(self.conv1(x)) # 池化函數(shù)的使用 F.max_pool2d(F.relu(self.conv2(x)), 2)
以上這篇pytorch1.0中torch.nn.Conv2d用法詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
python對(duì)ip地址進(jìn)行排序、分類的方法詳解
這篇文章主要介紹了python對(duì)ip地址進(jìn)行排序、分類的方法詳解,IP協(xié)議全稱為“網(wǎng)際互連協(xié)議Internet?Protocol”,IP協(xié)議是TCP/IP體系中的網(wǎng)絡(luò)層協(xié)議,需要的朋友可以參考下2023-07-07Python代碼中引用已經(jīng)寫好的模塊、方法的兩種方式
這篇文章主要介紹了Python代碼中引用已經(jīng)寫好的模塊、方法,下面就介紹兩種方式,可以簡(jiǎn)潔明了地調(diào)用自己在其他模塊寫的代碼,需要的朋友可以參考下2022-07-07Python3實(shí)現(xiàn)將文件歸檔到zip文件及從zip文件中讀取數(shù)據(jù)的方法
這篇文章主要介紹了Python3實(shí)現(xiàn)將文件歸檔到zip文件及從zip文件中讀取數(shù)據(jù)的方法,涉及Python針對(duì)zip文件操作的相關(guān)技巧,需要的朋友可以參考下2015-05-05python將二維數(shù)組升為一維數(shù)組或二維降為一維方法實(shí)例
在實(shí)際應(yīng)用的過(guò)程中,遇到列表或是數(shù)組的維數(shù)不同,需要變換的問(wèn)題,如二維列表/數(shù)組變成了一維列表/數(shù)組,下面這篇文章主要給大家介紹了關(guān)于python將二維數(shù)組升為一維數(shù)組或二維降為一維的相關(guān)資料,需要的朋友可以參考下2022-11-11Django修改app名稱和數(shù)據(jù)表遷移方案實(shí)現(xiàn)
這篇文章主要介紹了Django修改app名稱和數(shù)據(jù)表遷移方案實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-09-09python Django批量導(dǎo)入數(shù)據(jù)
這篇文章主要為大家詳細(xì)介紹了python Django批量導(dǎo)入數(shù)據(jù)的相關(guān)資料感興趣的小伙伴們可以參考一下2016-03-03