欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

淺談pytorch torch.backends.cudnn設(shè)置作用

 更新時(shí)間:2020年02月20日 10:49:55   作者:慢行厚積  
今天小編就為大家分享一篇淺談pytorch torch.backends.cudnn設(shè)置作用,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

cuDNN使用非確定性算法,并且可以使用torch.backends.cudnn.enabled = False來(lái)進(jìn)行禁用

如果設(shè)置為torch.backends.cudnn.enabled =True,說(shuō)明設(shè)置為使用使用非確定性算法

然后再設(shè)置:

torch.backends.cudnn.benchmark = true

那么cuDNN使用的非確定性算法就會(huì)自動(dòng)尋找最適合當(dāng)前配置的高效算法,來(lái)達(dá)到優(yōu)化運(yùn)行效率的問(wèn)題

一般來(lái)講,應(yīng)該遵循以下準(zhǔn)則:

如果網(wǎng)絡(luò)的輸入數(shù)據(jù)維度或類(lèi)型上變化不大,設(shè)置  torch.backends.cudnn.benchmark = true  可以增加運(yùn)行效率;

如果網(wǎng)絡(luò)的輸入數(shù)據(jù)在每次 iteration 都變化的話,會(huì)導(dǎo)致 cnDNN 每次都會(huì)去尋找一遍最優(yōu)配置,這樣反而會(huì)降低運(yùn)行效率。

所以我們經(jīng)常看見(jiàn)在代碼開(kāi)始出兩者同時(shí)設(shè)置:

torch.backends.cudnn.enabled = True
torch.backends.cudnn.benchmark = True

以上這篇淺談pytorch torch.backends.cudnn設(shè)置作用就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論