欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

淺談pytorch中為什么要用 zero_grad() 將梯度清零

 更新時(shí)間:2021年05月31日 14:20:28   作者:小小鼠標(biāo)0  
這篇文章主要介紹了pytorch中為什么要用 zero_grad() 將梯度清零的操作,具有很好的參考價(jià)值,希望對大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教

pytorch中為什么要用 zero_grad() 將梯度清零

調(diào)用backward()函數(shù)之前都要將梯度清零,因?yàn)槿绻荻炔磺辶悖琾ytorch中會(huì)將上次計(jì)算的梯度和本次計(jì)算的梯度累加。

這樣邏輯的好處是,當(dāng)我們的硬件限制不能使用更大的bachsize時(shí),使用多次計(jì)算較小的bachsize的梯度平均值來代替,更方便,壞處當(dāng)然是每次都要清零梯度。

optimizer.zero_grad()
output = net(input)
loss = loss_f(output, target)
loss.backward()

補(bǔ)充:Pytorch 為什么每一輪batch需要設(shè)置optimizer.zero_grad

CSDN上有人寫過原因,但是其實(shí)寫得繁瑣了。

根據(jù)pytorch中的backward()函數(shù)的計(jì)算,當(dāng)網(wǎng)絡(luò)參量進(jìn)行反饋時(shí),梯度是被積累的而不是被替換掉;但是在每一個(gè)batch時(shí)毫無疑問并不需要將兩個(gè)batch的梯度混合起來累積,因此這里就需要每個(gè)batch設(shè)置一遍zero_grad 了。

其實(shí)這里還可以補(bǔ)充的一點(diǎn)是,如果不是每一個(gè)batch就清除掉原有的梯度,而是比如說兩個(gè)batch再清除掉梯度,這是一種變相提高batch_size的方法,對于計(jì)算機(jī)硬件不行,但是batch_size可能需要設(shè)高的領(lǐng)域比較適合,比如目標(biāo)檢測模型的訓(xùn)練。

關(guān)于這一點(diǎn)可以參考這里

關(guān)于backward()的計(jì)算可以參考這里

補(bǔ)充:pytorch 踩坑筆記之w.grad.data.zero_()

在使用pytorch實(shí)現(xiàn)多項(xiàng)線性回歸中,在grad更新時(shí),每一次運(yùn)算后都需要將上一次的梯度記錄清空,運(yùn)用如下方法:

w.grad.data.zero_()
b.grad.data.zero_() 

但是,運(yùn)行程序就會(huì)報(bào)如下錯(cuò)誤:

報(bào)錯(cuò),grad沒有data這個(gè)屬性,

原因是,在系統(tǒng)將w的grad值初始化為none,第一次求梯度計(jì)算是在none值上進(jìn)行報(bào)錯(cuò),自然會(huì)沒有data屬性

修改方法:添加一個(gè)判斷語句,從第二次循環(huán)開始執(zhí)行求導(dǎo)運(yùn)算

for i in range(100):
    y_pred = multi_linear(x_train)
    loss = getloss(y_pred,y_train)
    if i != 0:
        w.grad.data.zero_()
        b.grad.data.zero_()
    loss.backward()
    w.data = w.data - 0.001 * w.grad.data
    b.data = b.data - 0.001 * b.grad.data

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • python模擬表單提交登錄圖書館

    python模擬表單提交登錄圖書館

    這篇文章主要為大家詳細(xì)介紹了python模擬表單提交登錄圖書館的實(shí)現(xiàn)方法,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2018-04-04
  • Python編寫可視化界面的全過程(Python+PyCharm+PyQt)

    Python編寫可視化界面的全過程(Python+PyCharm+PyQt)

    這篇文章主要給大家介紹了關(guān)于Python編寫可視化界面的相關(guān)資料,主要使用了Python+PyCharm+PyQt,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下
    2021-05-05
  • 使用Python生成跑馬燈視頻的完整代碼

    使用Python生成跑馬燈視頻的完整代碼

    這篇文章主要介紹了如何使用Python生成跑馬燈視頻,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2023-11-11
  • Selenium webdriver添加cookie實(shí)現(xiàn)過程詳解

    Selenium webdriver添加cookie實(shí)現(xiàn)過程詳解

    這篇文章主要介紹了Selenium webdriver添加cookie實(shí)現(xiàn)過程詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-08-08
  • 利用Python的sympy包求解一元三次方程示例

    利用Python的sympy包求解一元三次方程示例

    今天小編就為大家分享一篇利用Python的sympy包求解一元三次方程示例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-11-11
  • Python函數(shù)參數(shù)分類原理詳解

    Python函數(shù)參數(shù)分類原理詳解

    這篇文章主要介紹了Python函數(shù)參數(shù)分類原理詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-05-05
  • 使用Keras構(gòu)造簡單的CNN網(wǎng)絡(luò)實(shí)例

    使用Keras構(gòu)造簡單的CNN網(wǎng)絡(luò)實(shí)例

    這篇文章主要介紹了使用Keras構(gòu)造簡單的CNN網(wǎng)絡(luò)實(shí)例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-06-06
  • python正則表達(dá)式實(shí)現(xiàn)自動(dòng)化編程

    python正則表達(dá)式實(shí)現(xiàn)自動(dòng)化編程

    這篇文章主要介紹了python正則表達(dá)式實(shí)現(xiàn)自動(dòng)化編程,re模塊的compile()方法是構(gòu)成正則表達(dá)式的方法,向compile()傳入一個(gè)字符串表示正則表達(dá)式,該方法返回一個(gè)Regex模式的對象,需要的朋友可以參考下
    2023-01-01
  • Python實(shí)現(xiàn)銀行賬戶資金交易管理系統(tǒng)

    Python實(shí)現(xiàn)銀行賬戶資金交易管理系統(tǒng)

    這篇文章主要介紹了Python銀行賬戶資金交易管理系統(tǒng),本文通過實(shí)例代碼給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2020-01-01
  • Python中利用函數(shù)裝飾器實(shí)現(xiàn)備忘功能

    Python中利用函數(shù)裝飾器實(shí)現(xiàn)備忘功能

    這篇文章主要介紹了Python中利用函數(shù)裝飾器實(shí)現(xiàn)備忘功能,同時(shí)還降到了利用裝飾器來檢查函數(shù)的遞歸、確保參數(shù)傳遞的正確,需要的朋友可以參考下
    2015-03-03

最新評論