解決BN和Dropout共同使用時(shí)會(huì)出現(xiàn)的問題
BN與Dropout共同使用出現(xiàn)的問題
BN和Dropout單獨(dú)使用都能減少過擬合并加速訓(xùn)練速度,但如果一起使用的話并不會(huì)產(chǎn)生1+1>2的效果,相反可能會(huì)得到比單獨(dú)使用更差的效果。
相關(guān)的研究參考論文:Understanding the Disharmony between Dropout and Batch Normalization by Variance Shift
本論文作者發(fā)現(xiàn)理解 Dropout 與 BN 之間沖突的關(guān)鍵是網(wǎng)絡(luò)狀態(tài)切換過程中存在神經(jīng)方差的(neural variance)不一致行為。
試想若有圖一中的神經(jīng)響應(yīng) X,當(dāng)網(wǎng)絡(luò)從訓(xùn)練轉(zhuǎn)為測試時(shí),Dropout 可以通過其隨機(jī)失活保留率(即 p)來縮放響應(yīng),并在學(xué)習(xí)中改變神經(jīng)元的方差,而 BN 仍然維持 X 的統(tǒng)計(jì)滑動(dòng)方差。
這種方差不匹配可能導(dǎo)致數(shù)值不穩(wěn)定(見下圖中的紅色曲線)。
而隨著網(wǎng)絡(luò)越來越深,最終預(yù)測的數(shù)值偏差可能會(huì)累計(jì),從而降低系統(tǒng)的性能。
簡單起見,作者們將這一現(xiàn)象命名為「方差偏移」。
事實(shí)上,如果沒有 Dropout,那么實(shí)際前饋中的神經(jīng)元方差將與 BN 所累計(jì)的滑動(dòng)方差非常接近(見下圖中的藍(lán)色曲線),這也保證了其較高的測試準(zhǔn)確率。
作者采用了兩種策略來探索如何打破這種局限。
一個(gè)是在所有 BN 層后使用 Dropout,另一個(gè)就是修改 Dropout 的公式讓它對(duì)方差并不那么敏感,就是高斯Dropout。
第一個(gè)方案比較簡單
把Dropout放在所有BN層的后面就可以了,這樣就不會(huì)產(chǎn)生方差偏移的問題,但實(shí)則有逃避問題的感覺。
第二個(gè)方案
來自Dropout原文里提到的一種高斯Dropout,是對(duì)Dropout形式的一種拓展。作者進(jìn)一步拓展了高斯Dropout,提出了一個(gè)均勻分布Dropout,這樣做帶來了一個(gè)好處就是這個(gè)形式的Dropout(又稱為“Uout”)對(duì)方差的偏移的敏感度降低了,總得來說就是整體方差偏地沒有那么厲害了。
BN、dropout的幾個(gè)問題和思考
1、BN的scale初始化
scale一般初始化為1.0。
聯(lián)想到權(quán)重初始化時(shí),使用relu激活函數(shù)時(shí)若采用隨機(jī)正太分布初始化權(quán)重的公式是sqrt(2.0/Nin),其中Nin是輸入節(jié)點(diǎn)數(shù)。即比一般的方法大了2的平方根(原因是relu之后一半的數(shù)據(jù)變成了0,所以應(yīng)乘以根號(hào)2)。
那么relu前的BN,是否將scale初始化為根號(hào)2也會(huì)加速訓(xùn)練?
這里主要有個(gè)疑點(diǎn):BN的其中一個(gè)目的是統(tǒng)一各層的方差,以適用一個(gè)統(tǒng)一的學(xué)習(xí)率。那么若同時(shí)存在sigmoid、relu等多種網(wǎng)絡(luò),以上方法會(huì)不會(huì)使得統(tǒng)一方差以適應(yīng)不同學(xué)習(xí)率的效果打了折扣?
沒來得及試驗(yàn)效果,如果有試過的朋友請告知下效果。
2、dropout后的標(biāo)準(zhǔn)差改變問題
實(shí)踐發(fā)現(xiàn)droput之后改變了數(shù)據(jù)的標(biāo)準(zhǔn)差(令標(biāo)準(zhǔn)差變大,若數(shù)據(jù)均值非0時(shí),甚至均值也會(huì)產(chǎn)生改變)。
如果同時(shí)又使用了BN歸一化,由于BN在訓(xùn)練時(shí)保存了訓(xùn)練集的均值與標(biāo)準(zhǔn)差。dropout影響了所保存的均值與標(biāo)準(zhǔn)差的準(zhǔn)確性(不能適應(yīng)未來預(yù)測數(shù)據(jù)的需要),那么將影響網(wǎng)絡(luò)的準(zhǔn)確性。
若輸入數(shù)據(jù)為正太分布,只需要在dropout后乘以sqrt(0.5)即可恢復(fù)原來的標(biāo)準(zhǔn)差。但是對(duì)于非0的均值改變、以及非正太分布的數(shù)據(jù)數(shù)據(jù),又有什么好的辦法解決呢?
3、稀疏自編碼的稀疏系數(shù)
稀疏自編碼使用一個(gè)接近0的額外懲罰因子來使得隱層大部分節(jié)點(diǎn)大多數(shù)時(shí)候是抑制的,本質(zhì)上使隱層輸出均值為負(fù)數(shù)(激活前),例如懲罰因子為0.05,對(duì)應(yīng)sigmoid的輸入為-3.5,即要求隱層激活前的輸出中間值為-3.5,那么,是不是可以在激活前加一層BN,beta設(shè)為-3.5,這樣學(xué)起來比較快?
經(jīng)過測試,的確將BN的beta設(shè)為負(fù)數(shù)可加快訓(xùn)練速度。因?yàn)榫W(wǎng)絡(luò)初始化時(shí)就是稀疏的。
但是是不是有什么副作用,沒有理論上的研究。
4、max pooling是非線性的,avg pooling是線性的
總結(jié)
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
跟老齊學(xué)Python之玩轉(zhuǎn)字符串(2)更新篇
本文是玩轉(zhuǎn)字符串的續(xù)篇,繼續(xù)對(duì)字符串的連接方法進(jìn)行介紹,以及字符串復(fù)制、字符串長度、字符大小寫的轉(zhuǎn)換。非常不錯(cuò)的文章,希望對(duì)大家有所幫助2014-09-09python 實(shí)現(xiàn)圖片旋轉(zhuǎn) 上下左右 180度旋轉(zhuǎn)的示例
今天小編就為大家分享一篇python 實(shí)現(xiàn)圖片旋轉(zhuǎn) 上下左右 180度旋轉(zhuǎn)的示例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-01-01Python中用format函數(shù)格式化字符串的用法
這篇文章主要介紹了Python中用format函數(shù)格式化字符串的用法,格式化字符串是Python學(xué)習(xí)當(dāng)中的基礎(chǔ)知識(shí),本文主要針對(duì)Python2.7.x版本,需要的朋友可以參考下2015-04-04關(guān)于numpy.where()函數(shù) 返回值的解釋
今天小編就為大家分享一篇關(guān)于numpy.where()函數(shù) 返回值的解釋,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-12-12Python+Yolov5人臉口罩識(shí)別的詳細(xì)步驟
人臉口罩佩戴檢測(識(shí)別)是當(dāng)前急需的應(yīng)用,而YOLOv5是目前流行的強(qiáng)悍的目標(biāo)檢測技術(shù),下面這篇文章主要給大家介紹了關(guān)于Python+Yolov5人臉口罩識(shí)別的相關(guān)資料,需要的朋友可以參考下2022-12-12使用python實(shí)現(xiàn)個(gè)性化詞云的方法
最近看到可視化的詞云,看到網(wǎng)上也很多這樣的工具,但是都不怎么完美,有些不支持中文,有的中文詞頻統(tǒng)計(jì)得莫名其妙、有的不支持自定義形狀、所有的都不能自定義顏色,于是網(wǎng)上找了一下,決定用python繪制詞云2017-06-06分析Python的Django框架的運(yùn)行方式及處理流程
這篇文章主要介紹了分析Python的Django框架的運(yùn)行方式及處理流程,本文對(duì)于Django框架的機(jī)制總結(jié)得非常之直觀精煉,極力推薦!需要的朋友可以參考下2015-04-04