基于pytorch padding=SAME的解決方式
tensorflow中的conv2有padding=‘SAME'這個參數。吳恩達講課中說到當padding=(f-1)/2(f為卷積核大?。r則是SAME策略。但是這個沒有考慮到空洞卷積的情況,也沒有考慮到strides的情況。
查閱資料后發(fā)現網上方法比較麻煩。
手算,實驗了一個早上,終于初步解決了問題。
分為兩步:
填充多少
中文文檔中有計算公式:
輸入:
輸出:
因為卷積后圖片大小同卷積前,所以這里W_out=W_in, H_out=H_in。解一元一次方程即可。結果取ceil。
怎么填充
torch是先填充再卷積。conv2d的策略如此。所以我先在forward中獲取上述方程需要的參數。然后使用torch.nn.functional.pad填充就好了。
然后
t2=torch.randn([1,1,4,4]) print(t2.size()) m1 = torch.nn.Conv2d(1, 1, 1, padding=(1,0)) print(m1(t2).size()) t2=F.pad(t2,(0,0,1,1)) print(t2.size())
有兩個發(fā)現
pad是對稱的兩邊都填充的,所以上述總共填充2行/列
參數中padding=(1,0)的效果,與F.pad(t2, (0,0,1,1)的效果一樣。而不是與F.pad(t2,1,1,0,0)效果一樣。很神奇。本來(1,0)按照解視是1是H邊(左右)。0是W邊(上下)。(0,0,1,1)按解釋是左右不填充,上下填充。結果剛好相反。
這樣應該就沒什么問題了。
之后還需要看反卷積跟池化的pooling='SAME'是怎么實現的。
以上這篇基于pytorch padding=SAME的解決方式就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
詳解mac python+selenium+Chrome 簡單案例
這篇文章主要介紹了詳解mac python+selenium+Chrome 簡單案例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2019-11-11python 進程間數據共享multiProcess.Manger實現解析
這篇文章主要介紹了python 進程間數據共享multiProcess.Manger實現解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2019-09-09