淺析pytorch中對(duì)nn.BatchNorm2d()函數(shù)的理解
簡(jiǎn)介
機(jī)器學(xué)習(xí)中,進(jìn)行模型訓(xùn)練之前,需對(duì)數(shù)據(jù)做歸一化處理,使其分布一致。在深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,通常一次訓(xùn)練是一個(gè)batch,而非全體數(shù)據(jù)。每個(gè)batch具有不同的分布產(chǎn)生了internal covarivate shift問(wèn)題——在訓(xùn)練過(guò)程中,數(shù)據(jù)分布會(huì)發(fā)生變化,對(duì)下一層網(wǎng)絡(luò)的學(xué)習(xí)帶來(lái)困難。Batch Normalization強(qiáng)行將數(shù)據(jù)拉回到均值為0,方差為1的正太分布上,一方面使得數(shù)據(jù)分布一致,另一方面避免梯度消失。
計(jì)算
如圖所示:
3. Pytorch的nn.BatchNorm2d()函數(shù)
其主要需要輸入4個(gè)參數(shù):
(1)num_features:輸入數(shù)據(jù)的shape一般為[batch_size, channel, height, width], num_features為其中的channel;
(2)eps: 分母中添加的一個(gè)值,目的是為了計(jì)算的穩(wěn)定性,默認(rèn):1e-5;
(3)momentum: 一個(gè)用于運(yùn)行過(guò)程中均值和方差的一個(gè)估計(jì)參數(shù),默認(rèn)值為0.1.
(4)affine:當(dāng)設(shè)為true時(shí),給定可以學(xué)習(xí)的系數(shù)矩陣 γ \gamma γ和 β \beta β
4 代碼示例
import torch data = torch.ones(size=(2, 2, 3, 4)) data[0][0][0][0] = 25 print("data = ", data) print("\n") print("=========================使用封裝的BatchNorm2d()計(jì)算================================") BN = torch.nn.BatchNorm2d(num_features=2, eps=0, momentum=0) BN_data = BN(data) print("BN_data = ", BN_data) print("\n") print("=========================自行計(jì)算================================") x = torch.cat((data[0][0], data[1][0]), dim=1) # 1.將同一通道進(jìn)行拼接(即把同一通道當(dāng)作一個(gè)整體) x_mean = torch.Tensor.mean(x) # 2.計(jì)算同一通道所有制的均值(即拼接后的均值) x_var = torch.Tensor.var(x, False) # 3.計(jì)算同一通道所有制的方差(即拼接后的方差) # 4.使用第一個(gè)數(shù)按照公式來(lái)求BatchNorm后的值 bn_first = ((data[0][0][0][0] - x_mean) / ( torch.pow(x_var, 0.5))) * BN.weight[0] + BN.bias[0] print("bn_first = ", bn_first)
到此這篇關(guān)于pytorch中對(duì)nn.BatchNorm2d()函數(shù)的理解的文章就介紹到這了,更多相關(guān)pytorch nn.BatchNorm2d()函數(shù)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
在pycharm上mongodb配置及可視化設(shè)置方法
今天小編就為大家分享一篇在pycharm上mongodb配置及可視化設(shè)置方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-11-11淺談keras使用預(yù)訓(xùn)練模型vgg16分類,損失和準(zhǔn)確度不變
這篇文章主要介紹了淺談keras使用預(yù)訓(xùn)練模型vgg16分類,損失和準(zhǔn)確度不變,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編小編過(guò)來(lái)看看吧2020-07-07Django結(jié)合ajax進(jìn)行頁(yè)面實(shí)時(shí)更新的例子
今天小編就為大家分享一篇Django結(jié)合ajax進(jìn)行頁(yè)面實(shí)時(shí)更新的例子,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-08-08TensorFLow 不同大小圖片的TFrecords存取實(shí)例
今天小編就為大家分享一篇TensorFLow 不同大小圖片的TFrecords存取實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-01-01如何使用python傳入不確定個(gè)數(shù)參數(shù)
這篇文章主要介紹了如何使用python傳入不確定個(gè)數(shù)參數(shù),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-02-02Python實(shí)現(xiàn)在Linux系統(tǒng)下更改當(dāng)前進(jìn)程運(yùn)行用戶
這篇文章主要介紹了Python實(shí)現(xiàn)在Linux系統(tǒng)下更改當(dāng)前進(jìn)程運(yùn)行用戶,本文直接給出實(shí)現(xiàn)代碼,需要的朋友可以參考下2015-02-02