欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

pytorch1.0中torch.nn.Conv2d用法詳解

 更新時(shí)間:2020年01月10日 10:51:49   作者:Coulson_Zhao  
今天小編就為大家分享一篇pytorch1.0中torch.nn.Conv2d用法詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

Conv2d的簡(jiǎn)單使用

torch 包 nn 中 Conv2d 的用法與 tensorflow 中類似,但不完全一樣。

在 torch 中,Conv2d 有幾個(gè)基本的參數(shù),分別是

in_channels 輸入圖像的深度

out_channels 輸出圖像的深度

kernel_size 卷積核大小,正方形卷積只為單個(gè)數(shù)字

stride 卷積步長(zhǎng),默認(rèn)為1

padding 卷積是否造成尺寸丟失,1為不丟失

與tensorflow不一樣的是,pytorch中的使用更加清晰化,我們可以使用這種方法定義輸入與輸出圖像的深度并同時(shí)指定使用的卷積核的大小。

而我們的輸入則由經(jīng)由 Conv2d 定義的參數(shù)傳入,如下所示:

# 定義一個(gè)輸入深度為1,輸出為6,卷積核大小為 3*3 的 conv1 變量
self.conv1 = nn.Conv2d(1, 6, 3)
# 傳入原始輸入x,以獲得長(zhǎng)寬與x相當(dāng),深度為6的卷積部分
x = self.conv1(x)

要注意的是,Conv2d中所需要的輸入順序?yàn)?/p>

batchsize, nChannels, Height, Width

其他的簡(jiǎn)單使用

同樣的,與 Conv2d 類似的函數(shù)還有很多,類似 max_pool2d、relu等等,他們的使用方法與 Conv2d 極為類似,如下所示:

# relu函數(shù)的使用
F.relu(self.conv1(x))
# 池化函數(shù)的使用
F.max_pool2d(F.relu(self.conv2(x)), 2)

以上這篇pytorch1.0中torch.nn.Conv2d用法詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論