欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

PyTorch基礎(chǔ)之torch.nn.Conv2d中自定義權(quán)重問題

 更新時(shí)間:2023年02月01日 15:30:00   作者:gy笨瓜  
這篇文章主要介紹了PyTorch基礎(chǔ)之torch.nn.Conv2d中自定義權(quán)重問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教

torch.nn.Conv2d中自定義權(quán)重

torch.nn.Conv2d函數(shù)調(diào)用后會(huì)自動(dòng)初始化weight和bias,本文主要涉及

如何自定義weight和bias為需要的數(shù)均分布類型:

torch.nn.Conv2d.weight.data以及torch.nn.Conv2d.bias.data為torch.tensor類型,因此只要對(duì)這兩個(gè)屬性進(jìn)行操作即可。

【sample】

以input_channels = 2, output_channels = 1 為例

In [1]: import torch
In [2]: import torch.nn as nn

In [3]: conv = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=3)

# 此時(shí)weight以及bias已由nn.Conv2d初始化
conv.weight, conv.bias
Out[4]: 
(Parameter containing:
 tensor([[[[-0.0335,  0.0855, -0.0708],
           [-0.1672,  0.0902, -0.0077],
           [-0.0838, -0.1539, -0.0933]],
 
          [[-0.0496,  0.1807, -0.1477],
           [ 0.0397,  0.1963,  0.0932],
           [-0.2018, -0.0436,  0.1971]]]], requires_grad=True),
 Parameter containing:
 tensor([-0.1963], requires_grad=True))

# 手動(dòng)設(shè)定
# conv.weight.data 以及 conv.bias.data屬性為torch.tensor
# 因此只要獲取conv.weight.data以及conv.bias.data屬性,后續(xù)調(diào)用torch.tensor的不同方法即可進(jìn)行修改
# 例如:全部修改為0
In [5]: conv.weight.data.zero_(), conv.bias.data.zero_()

In [6]: conv.weight, conv.bias
Out[6]: 
(Parameter containing:
 tensor([[[[0., 0., 0.],
           [0., 0., 0.],
           [0., 0., 0.]],
 
          [[0., 0., 0.],
           [0., 0., 0.],
           [0., 0., 0.]]]], requires_grad=True),
 Parameter containing:
 tensor([0.], requires_grad=True))

torch.nn.Conv2d()用法講解

本文是深度學(xué)習(xí)框架 pytorch 的API : torch.nn.Conv2d() 函數(shù)的用法。介紹了 torch.nn.Conv2d() 各個(gè)參數(shù)的含義和用法,學(xué)會(huì)使用 pytorch 創(chuàng)建 卷積神經(jīng)網(wǎng)絡(luò)。

用法

Conv2d(in_channels, out_channels, kernel_size, stride=1,padding=0, dilation=1, groups=1,bias=True, padding_mode=‘zeros')

參數(shù)

  • in_channels:輸入的通道數(shù)目 【必選】
  • out_channels:輸出的通道數(shù)目 【必選】
  • kernel_size:卷積核的大小,類型為int 或者元組,當(dāng)卷積是方形的時(shí)候,只需要一個(gè)整數(shù)邊長即可,卷積不是方形,要輸入一個(gè)元組表示 高和寬?!颈剡x】
  • stride:卷積每次滑動(dòng)的步長為多少,默認(rèn)是 1 【可選】
  • padding:設(shè)置在所有邊界增加 值為 0 的邊距的大?。ㄒ簿褪窃趂eature map 外圍增加幾圈 0 ),例如當(dāng) padding =1 的時(shí)候,如果原來大小為 3 × 3 ,那么之后的大小為 5 × 5 。即在外圍加了一圈 0 ?!究蛇x】
  • dilation:控制卷積核之間的間距(什么玩意?請(qǐng)看例子)【可選】

如果我們?cè)O(shè)置的dilation=0的話,效果如圖:(藍(lán)色為輸入,綠色為輸出,卷積核為3 × 3)

如果設(shè)置的是dilation=1,那么效果如圖:(藍(lán)色為輸入,綠色為輸出,卷積核仍為 3 × 3 。)

但是這里卷積核點(diǎn)與輸入之間距離為1的值相乘來得到輸出。

  • groups:控制輸入和輸出之間的連接。(不常用)【可選】

舉例來說:

比如 groups 為1,那么所有的輸入都會(huì)連接到所有輸出

當(dāng) groups 為 2的時(shí)候,相當(dāng)于將輸入分為兩組,并排放置兩層,每層看到一半的輸入通道并產(chǎn)生一半的輸出通道,并且兩者都是串聯(lián)在一起的。這也是參數(shù)字面的意思:“組” 的含義。

需要注意的是,in_channels 和 out_channels 必須都可以整除 groups,否則會(huì)報(bào)錯(cuò)(因?yàn)橐殖蛇@么多組啊,除不開你讓人家程序怎么辦?)

  • bias: 是否將一個(gè) 學(xué)習(xí)到的 bias 增加輸出中,默認(rèn)是 True 。【可選】
  • padding_mode : 字符串類型,接收的字符串只有 “zeros” 和 “circular”?!究蛇x】

注意:參數(shù) kernel_size,stride,padding,dilation 都可以是一個(gè)整數(shù)或者是一個(gè)元組,一個(gè)值的情況將會(huì)同時(shí)作用于高和寬 兩個(gè)維度,兩個(gè)值的元組情況代表分別作用于 維度。

相關(guān)形狀

示例

入門學(xué)習(xí)者請(qǐng)不要過度關(guān)注某一些細(xì)節(jié),建立一個(gè)簡單的卷積層使用這個(gè) API 其實(shí)很簡單,大部分參數(shù)保持默認(rèn)值就好,下面是簡單的一個(gè)示例,創(chuàng)建一個(gè)簡單的卷積神經(jīng)網(wǎng)絡(luò):

class CNN(nn.Module):
    def __init__(self,in_channels:int,out_channels:int):
        """
        創(chuàng)建一個(gè)卷積神經(jīng)網(wǎng)絡(luò)
        網(wǎng)絡(luò)只有兩層
        :param in_channels: 輸入通道數(shù)量
        :param out_channels: 輸出通道數(shù)量
        """
        super(CNN).__init__()
        self.conv1=nn.Conv2d(in_channels,10,3,stride=1,padding=1)
        self.pool1=nn.MaxPool2d(kernel_size=2,stride=1)
        self.conv2=nn.Conv2d(10,out_channels,3,stride=1,padding=1)
        self.pool2=nn.MaxPool2d(kernel_size=2,stride=1)
    def forward(self,x):
        """
        前向傳播函數(shù)
        :param x:  輸入,tensor 類型
        :return: 返回結(jié)果
        """
        out=self.conv1(x)
        out=self.pool1(out)
        out=self.conv2(out)
        out=self.pool2(out)
        return out

總結(jié)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論