BatchNorm2d原理、作用及pytorch中BatchNorm2d函數(shù)的參數(shù)使用
BN原理、作用
函數(shù)參數(shù)講解
BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
- 1.
num_features
:一般輸入?yún)?shù)的shape為batch_size*num_features*height*width,即為其中特征的數(shù)量,即為輸入BN層的通道數(shù); - 2.
eps
:分母中添加的一個(gè)值,目的是為了計(jì)算的穩(wěn)定性,默認(rèn)為:1e-5,避免分母為0; - 3.
momentum
:一個(gè)用于運(yùn)行過(guò)程中均值和方差的一個(gè)估計(jì)參數(shù)(我的理解是一個(gè)穩(wěn)定系數(shù),類(lèi)似于SGD中的momentum的系數(shù)); - 4.
affine
:當(dāng)設(shè)為true時(shí),會(huì)給定可以學(xué)習(xí)的系數(shù)矩陣gamma和beta
一般來(lái)說(shuō)pytorch中的模型都是繼承nn.Module類(lèi)的,都有一個(gè)屬性trainning指定是否是訓(xùn)練狀態(tài),訓(xùn)練狀態(tài)與否將會(huì)影響到某些層的參數(shù)是否是固定的,比如BN層或者Dropout層。
通常用model.train()指定當(dāng)前模型model為訓(xùn)練狀態(tài),model.eval()指定當(dāng)前模型為測(cè)試狀態(tài)。
同時(shí),BN的API中有幾個(gè)參數(shù)需要比較關(guān)心的,一個(gè)是affine指定是否需要仿射,還有個(gè)是track_running_stats指定是否跟蹤當(dāng)前batch的統(tǒng)計(jì)特性。
容易出現(xiàn)問(wèn)題也正好是這三個(gè)參數(shù):trainning,affine,track_running_stats。
其中的affine指定是否需要仿射,也就是是否需要上面算式的第四個(gè),如果affine=False則γ=1,β=0,并且不能學(xué)習(xí)被更新。一般都會(huì)設(shè)置成affine=True。
trainning和track_running_stats,track_running_stats=True表示跟蹤整個(gè)訓(xùn)練過(guò)程中的batch的統(tǒng)計(jì)特性,得到方差和均值,而不只是僅僅依賴(lài)與當(dāng)前輸入的batch的統(tǒng)計(jì)特性。
相反的,如果track_running_stats=False那么就只是計(jì)算當(dāng)前輸入的batch的統(tǒng)計(jì)特性中的均值和方差了。
當(dāng)在推理階段的時(shí)候,如果track_running_stats=False,此時(shí)如果batch_size比較小,那么其統(tǒng)計(jì)特性就會(huì)和全局統(tǒng)計(jì)特性有著較大偏差,可能導(dǎo)致糟糕的效果。
如果BatchNorm2d的參數(shù)track_running_stats設(shè)置False,那么加載預(yù)訓(xùn)練后每次模型測(cè)試測(cè)試集的結(jié)果時(shí)都不一樣;track_running_stats設(shè)置為T(mén)rue時(shí),每次得到的結(jié)果都一樣。
running_mean和running_var參數(shù)是根據(jù)輸入的batch的統(tǒng)計(jì)特性計(jì)算的,嚴(yán)格來(lái)說(shuō)不算是“學(xué)習(xí)”到的參數(shù),不過(guò)對(duì)于整個(gè)計(jì)算是很重要的。
BN層中的running_mean和running_var的更新是在forward操作中進(jìn)行的,而不是在optimizer.step()中進(jìn)行的,因此如果處于訓(xùn)練中泰,就算不進(jìn)行手動(dòng)step(),BN的統(tǒng)計(jì)特性也會(huì)變化。
model.train() #處于訓(xùn)練狀態(tài) for data , label in self.dataloader: pred =model(data) #在這里會(huì)更新model中的BN統(tǒng)計(jì)特性參數(shù),running_mean,running_var loss=self.loss(pred,label) #就算不進(jìn)行下列三行,BN的統(tǒng)計(jì)特性參數(shù)也會(huì)變化 opt.zero_grad() loss.backward() opt.step()
這個(gè)時(shí)候,要用model.eval()轉(zhuǎn)到測(cè)試階段,才能固定住running_mean和running_var,有時(shí)候如果是先預(yù)訓(xùn)練模型然后加載模型,重新跑測(cè)試數(shù)據(jù)的時(shí)候,結(jié)果不同,有一點(diǎn)性能上的損失,這個(gè)時(shí)候基本上是training和track_running_stats設(shè)置的不對(duì)。
如果使用兩個(gè)模型進(jìn)行聯(lián)合訓(xùn)練,為了收斂更容易控制,先預(yù)訓(xùn)練好模型model_A,并且model_A內(nèi)還有若干BN層,后續(xù)需要將model_A作為一個(gè)inference推理模型和model_B聯(lián)合訓(xùn)練,此時(shí)希望model_A中的BN的統(tǒng)計(jì)特性量running_mean和running_var不會(huì)亂變化,因此就需要將model_A.eval()設(shè)置到測(cè)試模型,否則在trainning模式下,就算是不去更新模型的參數(shù),其BN都會(huì)變化,這將導(dǎo)致和預(yù)期不同的結(jié)果。
總結(jié)
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python 內(nèi)置函數(shù)complex詳解
這篇文章主要介紹了Python 內(nèi)置函數(shù)complex詳解的相關(guān)資料,需要的朋友可以參考下2016-10-10淺談插入排序算法在Python程序中的實(shí)現(xiàn)及簡(jiǎn)單改進(jìn)
這篇文章主要介紹了插入排序算法在Python程序中的實(shí)現(xiàn)及簡(jiǎn)單改進(jìn),插入排序算法的最差時(shí)間復(fù)雜度為O(n^2),最優(yōu)時(shí)間復(fù)雜度為O(n),存在一定的優(yōu)化空間,需要的朋友可以參考下2016-05-05python2.7實(shí)現(xiàn)FTP文件下載功能
這篇文章主要為大家詳細(xì)介紹了python 2.7 實(shí)現(xiàn)FTP文件下載功能,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-04-04Python基于sklearn庫(kù)的分類(lèi)算法簡(jiǎn)單應(yīng)用示例
這篇文章主要介紹了Python基于sklearn庫(kù)的分類(lèi)算法,結(jié)合簡(jiǎn)單實(shí)例形式分析了Python使用sklearn庫(kù)封裝樸素貝葉斯、K近鄰、邏輯回歸、SVM向量機(jī)等常見(jiàn)機(jī)器學(xué)習(xí)算法的分類(lèi)調(diào)用相關(guān)操作技巧,需要的朋友可以參考下2018-07-07python中如何用time方法生成當(dāng)前時(shí)間年月日時(shí)分秒
這篇文章主要給大家介紹了關(guān)于python中如何用time方法生成當(dāng)前時(shí)間年月日時(shí)分秒的相關(guān)資料,在Python中與時(shí)間處理有關(guān)的模塊就包括:time,datetime以及calendar,Time模塊用以取得系統(tǒng)時(shí)間相關(guān)的信息和時(shí)間的格式化等操作,需要的朋友可以參考下2023-08-08Python實(shí)現(xiàn)合并PDF文件的三種方式
在處理多個(gè) PDF 文檔時(shí),頻繁地打開(kāi)關(guān)閉文件會(huì)嚴(yán)重影響效率,因此我們可以先將這些PDF文件合并起來(lái)再操作,本文將分享3種使用 Python 合并 PDF 文件的實(shí)現(xiàn)方法,希望對(duì)大家有所幫助2023-11-11Python中l(wèi)ambda表達(dá)式的用法示例小結(jié)
本文主要展示了一些lambda表達(dá)式的使用示例,通過(guò)這些示例,我們可以了解到lambda表達(dá)式的常用語(yǔ)法以及使用的場(chǎng)景,感興趣的朋友跟隨小編一起看看吧2024-04-04