pytorch 計(jì)算ConvTranspose1d輸出特征大小方式
問題:如何經(jīng)過convTransposed1d輸出指定大小的特征?
import torch from torch import nn import torch.nn.functional as F conv1 = nn.Conv1d(1, 2, 3, padding=1) conv2 = nn.Conv1d(in_channels=2, out_channels=4, kernel_size=3, padding=1) #轉(zhuǎn)置卷積 dconv1 = nn.ConvTranspose1d(4, 1, kernel_size=3, stride=2, padding=1, output_padding=1) x = torch.randn(16, 1, 8) print(x.size()) x1 = conv1(x) x2 = conv2(x1) print(x2.size()) x3 = dconv1(x2) print(x3.size()) ''' torch.Size([16, 1, 8]) torch.Size([16, 4, 8]) #conv2輸出特征圖大小 torch.Size([16, 1, 16]) #轉(zhuǎn)置卷積輸出特征圖大小 '''

#轉(zhuǎn)置卷積 dconv1 = nn.ConvTranspose1d(1, 1, kernel_size=3, stride=3, padding=1, output_padding=1) x = torch.randn(16, 1, 8) print(x.size()) #torch.Size([16, 1, 23]) x3 = dconv1(x) print(x3.size()) #torch.Size([16, 1, 23])
下面兩圖為演示conv1d,在padding和不padding下的輸出特征圖大小
不帶padding

帶padding

補(bǔ)充知識:判斷pytorch是否支持GPU加速
如下所示:
print torch.cuda.is_available()

以上這篇pytorch 計(jì)算ConvTranspose1d輸出特征大小方式就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
python celery分布式任務(wù)隊(duì)列的使用詳解
這篇文章主要介紹了python celery分布式任務(wù)隊(duì)列的使用詳解,Celery 是一個 基于python開發(fā)的分布式異步消息任務(wù)隊(duì)列,通過它可以輕松的實(shí)現(xiàn)任務(wù)的異步處理, 如果你的業(yè)務(wù)場景中需要用到異步任務(wù),就可以考慮使用celery,需要的朋友可以參考下2019-07-07
python實(shí)現(xiàn)三種隨機(jī)請求頭方式
這篇文章主要介紹了python實(shí)現(xiàn)三種隨機(jī)請求頭方式,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-01-01
使用python制作一個為hex文件增加版本號的腳本實(shí)例
今天小編就為大家分享一篇使用python制作一個為hex文件增加版本號的腳本實(shí)例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-06-06
Python內(nèi)建類型int源碼學(xué)習(xí)
這篇文章主要為大家介紹了Python內(nèi)建類型int源碼學(xué)習(xí),有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-05-05
Python算法之棧(stack)的實(shí)現(xiàn)
這篇文章主要介紹了Python算法之棧(stack)的實(shí)現(xiàn),非常實(shí)用,需要的朋友可以參考下2014-08-08
DataFrame窗口函數(shù)rolling()的用法
這篇文章主要介紹了DataFrame窗口函數(shù)rolling()的用法,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-02-02

