解決Tensorflow占用GPU顯存問題
我使用Pytorch進(jìn)行模型訓(xùn)練時發(fā)現(xiàn)真正模型本身對于顯存的占用并不明顯,但是對應(yīng)的轉(zhuǎn)換為tensorflow后(權(quán)重也進(jìn)行了轉(zhuǎn)換),發(fā)現(xiàn)Python-tensorflow在使用時默認(rèn)吃掉所有顯存,并且不手動終結(jié)程序的話顯存并不釋放(我有兩個序貫的模型,前面一個跑完后并不釋放占用顯存)(https://github.com/tensorflow/tensorflow/issues/1727),這一點對于后續(xù)的工作有很大的影響。
后面發(fā)現(xiàn)python-tensorflow限制顯存有兩種方法:
1. 設(shè)置顯卡的使用率
這種方法在學(xué)習(xí)和工作中比較好用,學(xué)習(xí)時可提高顯卡使用效率,工作時可方便的獲得GPU顯存消耗極限,用以提供顯卡購買時的參數(shù),現(xiàn)將代碼展示如下:
這里的0.1 表示使用顯存總量的的10%
2. 設(shè)置顯卡按需使用(這個本人并沒有專門測試,只是從tensorflow論壇上獲得)
gpu_options = tf.GPUOptions(allow_growth=True) sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
以上這篇解決Tensorflow占用GPU顯存問題就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
python機器學(xué)習(xí)sklearn實現(xiàn)識別數(shù)字
本文主要介紹了python機器學(xué)習(xí)sklearn實現(xiàn)識別數(shù)字,主要簡述如何通過sklearn模塊來進(jìn)行預(yù)測和學(xué)習(xí),最后再以圖表這種更加直觀的方式展現(xiàn)出來,感興趣的可以了解一下2022-03-03Python中實現(xiàn)ipaddress網(wǎng)絡(luò)地址的處理
ipaddress庫提供了處理IPv4與IPv6網(wǎng)絡(luò)地址的類。這些類支持驗證,查找網(wǎng)絡(luò)上的地址和主機,以及其他常見的操作,本文就來介紹一下這些方法的使用,感興趣的一起來了解一下2021-06-06Pytorch實現(xiàn)圖像識別之?dāng)?shù)字識別(附詳細(xì)注釋)
這篇文章主要介紹了Pytorch實現(xiàn)圖像識別之?dāng)?shù)字識別(附詳細(xì)注釋),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-05-05python 求1-100之間的奇數(shù)或者偶數(shù)之和的實例
今天小編就為大家分享一篇python 求1-100之間的奇數(shù)或者偶數(shù)之和的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-06-06Python時間戳與時間字符串互相轉(zhuǎn)換實例代碼
這篇文章主要介紹了Python時間戳與時間字符串互相轉(zhuǎn)換實例代碼,大家參考使用2013-11-11