解決Tensorflow占用GPU顯存問題
我使用Pytorch進(jìn)行模型訓(xùn)練時(shí)發(fā)現(xiàn)真正模型本身對(duì)于顯存的占用并不明顯,但是對(duì)應(yīng)的轉(zhuǎn)換為tensorflow后(權(quán)重也進(jìn)行了轉(zhuǎn)換),發(fā)現(xiàn)Python-tensorflow在使用時(shí)默認(rèn)吃掉所有顯存,并且不手動(dòng)終結(jié)程序的話顯存并不釋放(我有兩個(gè)序貫的模型,前面一個(gè)跑完后并不釋放占用顯存)(https://github.com/tensorflow/tensorflow/issues/1727),這一點(diǎn)對(duì)于后續(xù)的工作有很大的影響。
后面發(fā)現(xiàn)python-tensorflow限制顯存有兩種方法:
1. 設(shè)置顯卡的使用率
這種方法在學(xué)習(xí)和工作中比較好用,學(xué)習(xí)時(shí)可提高顯卡使用效率,工作時(shí)可方便的獲得GPU顯存消耗極限,用以提供顯卡購買時(shí)的參數(shù),現(xiàn)將代碼展示如下:
這里的0.1 表示使用顯存總量的的10%
2. 設(shè)置顯卡按需使用(這個(gè)本人并沒有專門測(cè)試,只是從tensorflow論壇上獲得)
gpu_options = tf.GPUOptions(allow_growth=True) sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
以上這篇解決Tensorflow占用GPU顯存問題就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
python機(jī)器學(xué)習(xí)sklearn實(shí)現(xiàn)識(shí)別數(shù)字
本文主要介紹了python機(jī)器學(xué)習(xí)sklearn實(shí)現(xiàn)識(shí)別數(shù)字,主要簡(jiǎn)述如何通過sklearn模塊來進(jìn)行預(yù)測(cè)和學(xué)習(xí),最后再以圖表這種更加直觀的方式展現(xiàn)出來,感興趣的可以了解一下2022-03-03Python中實(shí)現(xiàn)ipaddress網(wǎng)絡(luò)地址的處理
ipaddress庫提供了處理IPv4與IPv6網(wǎng)絡(luò)地址的類。這些類支持驗(yàn)證,查找網(wǎng)絡(luò)上的地址和主機(jī),以及其他常見的操作,本文就來介紹一下這些方法的使用,感興趣的一起來了解一下2021-06-06python實(shí)現(xiàn)百萬答題自動(dòng)百度搜索答案
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)百萬答題自動(dòng)百度搜索答案,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-01-01Pytorch實(shí)現(xiàn)圖像識(shí)別之?dāng)?shù)字識(shí)別(附詳細(xì)注釋)
這篇文章主要介紹了Pytorch實(shí)現(xiàn)圖像識(shí)別之?dāng)?shù)字識(shí)別(附詳細(xì)注釋),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-05-05python 求1-100之間的奇數(shù)或者偶數(shù)之和的實(shí)例
今天小編就為大家分享一篇python 求1-100之間的奇數(shù)或者偶數(shù)之和的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-06-06Python時(shí)間戳與時(shí)間字符串互相轉(zhuǎn)換實(shí)例代碼
這篇文章主要介紹了Python時(shí)間戳與時(shí)間字符串互相轉(zhuǎn)換實(shí)例代碼,大家參考使用2013-11-11