PyTorch基礎(chǔ)之torch.nn.Conv2d中自定義權(quán)重問題
torch.nn.Conv2d中自定義權(quán)重
torch.nn.Conv2d函數(shù)調(diào)用后會自動初始化weight和bias,本文主要涉及
如何自定義weight和bias為需要的數(shù)均分布類型:
torch.nn.Conv2d.weight.data以及torch.nn.Conv2d.bias.data為torch.tensor類型,因此只要對這兩個屬性進行操作即可。
【sample】
以input_channels = 2, output_channels = 1 為例
In [1]: import torch In [2]: import torch.nn as nn In [3]: conv = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=3) # 此時weight以及bias已由nn.Conv2d初始化 conv.weight, conv.bias Out[4]: (Parameter containing: tensor([[[[-0.0335, 0.0855, -0.0708], [-0.1672, 0.0902, -0.0077], [-0.0838, -0.1539, -0.0933]], [[-0.0496, 0.1807, -0.1477], [ 0.0397, 0.1963, 0.0932], [-0.2018, -0.0436, 0.1971]]]], requires_grad=True), Parameter containing: tensor([-0.1963], requires_grad=True)) # 手動設(shè)定 # conv.weight.data 以及 conv.bias.data屬性為torch.tensor # 因此只要獲取conv.weight.data以及conv.bias.data屬性,后續(xù)調(diào)用torch.tensor的不同方法即可進行修改 # 例如:全部修改為0 In [5]: conv.weight.data.zero_(), conv.bias.data.zero_() In [6]: conv.weight, conv.bias Out[6]: (Parameter containing: tensor([[[[0., 0., 0.], [0., 0., 0.], [0., 0., 0.]], [[0., 0., 0.], [0., 0., 0.], [0., 0., 0.]]]], requires_grad=True), Parameter containing: tensor([0.], requires_grad=True))
torch.nn.Conv2d()用法講解
本文是深度學(xué)習(xí)框架 pytorch 的API : torch.nn.Conv2d() 函數(shù)的用法。介紹了 torch.nn.Conv2d() 各個參數(shù)的含義和用法,學(xué)會使用 pytorch 創(chuàng)建 卷積神經(jīng)網(wǎng)絡(luò)。
用法
Conv2d(in_channels, out_channels, kernel_size, stride=1,padding=0, dilation=1, groups=1,bias=True, padding_mode=‘zeros')
參數(shù)
in_channels
:輸入的通道數(shù)目 【必選】out_channels
:輸出的通道數(shù)目 【必選】kernel_size
:卷積核的大小,類型為int 或者元組,當卷積是方形的時候,只需要一個整數(shù)邊長即可,卷積不是方形,要輸入一個元組表示 高和寬?!颈剡x】stride
:卷積每次滑動的步長為多少,默認是 1 【可選】padding
:設(shè)置在所有邊界增加 值為 0 的邊距的大?。ㄒ簿褪窃趂eature map 外圍增加幾圈 0 ),例如當 padding =1 的時候,如果原來大小為 3 × 3 ,那么之后的大小為 5 × 5 。即在外圍加了一圈 0 ?!究蛇x】dilation
:控制卷積核之間的間距(什么玩意?請看例子)【可選】
如果我們設(shè)置的dilation=0的話,效果如圖:(藍色為輸入,綠色為輸出,卷積核為3 × 3)
如果設(shè)置的是dilation=1,那么效果如圖:(藍色為輸入,綠色為輸出,卷積核仍為 3 × 3 。)
但是這里卷積核點與輸入之間距離為1的值相乘來得到輸出。
groups
:控制輸入和輸出之間的連接。(不常用)【可選】
舉例來說:
比如 groups 為1,那么所有的輸入都會連接到所有輸出
當 groups 為 2的時候,相當于將輸入分為兩組,并排放置兩層,每層看到一半的輸入通道并產(chǎn)生一半的輸出通道,并且兩者都是串聯(lián)在一起的。這也是參數(shù)字面的意思:“組” 的含義。
需要注意的是,in_channels 和 out_channels 必須都可以整除 groups,否則會報錯(因為要分成這么多組啊,除不開你讓人家程序怎么辦?)
bias
: 是否將一個 學(xué)習(xí)到的 bias 增加輸出中,默認是 True ?!究蛇x】padding_mode
: 字符串類型,接收的字符串只有 “zeros” 和 “circular”?!究蛇x】
注意:參數(shù) kernel_size,stride,padding,dilation 都可以是一個整數(shù)或者是一個元組,一個值的情況將會同時作用于高和寬 兩個維度,兩個值的元組情況代表分別作用于 高 和 寬 維度。
相關(guān)形狀
示例
入門學(xué)習(xí)者請不要過度關(guān)注某一些細節(jié),建立一個簡單的卷積層使用這個 API 其實很簡單,大部分參數(shù)保持默認值就好,下面是簡單的一個示例,創(chuàng)建一個簡單的卷積神經(jīng)網(wǎng)絡(luò):
class CNN(nn.Module): def __init__(self,in_channels:int,out_channels:int): """ 創(chuàng)建一個卷積神經(jīng)網(wǎng)絡(luò) 網(wǎng)絡(luò)只有兩層 :param in_channels: 輸入通道數(shù)量 :param out_channels: 輸出通道數(shù)量 """ super(CNN).__init__() self.conv1=nn.Conv2d(in_channels,10,3,stride=1,padding=1) self.pool1=nn.MaxPool2d(kernel_size=2,stride=1) self.conv2=nn.Conv2d(10,out_channels,3,stride=1,padding=1) self.pool2=nn.MaxPool2d(kernel_size=2,stride=1) def forward(self,x): """ 前向傳播函數(shù) :param x: 輸入,tensor 類型 :return: 返回結(jié)果 """ out=self.conv1(x) out=self.pool1(out) out=self.conv2(out) out=self.pool2(out) return out
總結(jié)
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
解決jupyter notebook 出現(xiàn)In[*]的問題
這篇文章主要介紹了解決jupyter notebook 出現(xiàn)In[*]的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04Python實現(xiàn)在matplotlib中兩個坐標軸之間畫一條直線光標的方法
這篇文章主要介紹了Python實現(xiàn)在matplotlib中兩個坐標軸之間畫一條直線光標的方法,涉及Python操作matplotlib模塊繪圖的相關(guān)技巧,需要的朋友可以參考下2015-05-05Python求兩點之間的直線距離(2種實現(xiàn)方法)
今天小編就為大家分享一篇Python求兩點之間的直線距離(2種實現(xiàn)方法),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-07-07給Python的Django框架下搭建的BLOG添加RSS功能的教程
這篇文章主要介紹了給Python的Django框架下搭建的BLOG添加RSS功能的教程,示例代碼非常簡單,需要的朋友可以參考下2015-04-04Python的Bottle框架中實現(xiàn)最基本的get和post的方法的教程
這篇文章主要介紹了Python的Bottle框架中實現(xiàn)最基本的get和post的方法的教程,Bottle框架在Python開發(fā)者中的人氣很高,需要的朋友可以參考下2015-04-04