TensorFlow和keras中GPU使用的設(shè)置操作
1. 訓(xùn)練運(yùn)行時(shí)候指定GPU
運(yùn)行時(shí)候加一行代碼:
CUDA_VISIBLE_DEVICES=1 python train.py
2. 運(yùn)行過(guò)程中按需或者定量分配GPU
tensorflow直接在開(kāi)啟Session時(shí)候加幾行代碼就行,而Keras指定GPU,并限制按需用量和TensorFlow不太一樣,因?yàn)閗eras訓(xùn)練是封裝好的,不好對(duì)Session操作。如下是兩種對(duì)應(yīng)的操作。
keras中的操作:
import os import tensorflow as tf from keras.backend.tensorflow_backend import set_session # 指定第一塊GPU可用 os.environ["CUDA_VISIBLE_DEVICES"] = "0" #指定GPU的第二種方法 config = tf.ConfigProto() config.gpu_options.allocator_type = 'BFC' #A "Best-fit with coalescing" algorithm, simplified from a version of dlmalloc. config.gpu_options.per_process_gpu_memory_fraction = 0.3 #定量 config.gpu_options.allow_growth = True #按需 set_session(tf.Session(config=config))
TensorFlow中的操作:
#指定GPU import os os.environ["CUDA_VISIBLE_DEVICES"] = "0" #設(shè)置GPU定量分配 config = tf.ConfigProto() config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用GPU90%的顯存 session = tf.Session(config=config) #設(shè)置GPU按需分配 config = tf.ConfigProto() config.gpu_options.allow_growth = True session = tf.Session(config=config)
補(bǔ)充:Keras以及Tensorflow強(qiáng)制使用CPU,GPU
Keras如果是使用Theano后端的話,應(yīng)該是自動(dòng)不使用GPU只是用CPU的,啟動(dòng)GPU使用Theano內(nèi)部命令即可。
對(duì)于Tensorflow后端的Keras以及Tensorflow會(huì)自動(dòng)使用可見(jiàn)的GPU,而我需要其必須只運(yùn)行在CPU上。網(wǎng)上查到三種方法,最后一種方法對(duì)我有用,但也對(duì)三種都做如下記錄:
使用tensorflow的 with tf.device('/cpu:0'):函數(shù)。簡(jiǎn)單操作就是把所有命令都放在前面所述的域里面。
使用tensorflow聲明Session時(shí)的參數(shù): 關(guān)于tensorflow中Session中的部分參數(shù)設(shè)置,以及Keras如何設(shè)置其調(diào)用的Tensorflow的Session,可以參見(jiàn)Keras設(shè)定GPU使用內(nèi)存大小(Tensorflow backend)。
對(duì)于Tensorflow,聲明Session的時(shí)候加入device_count={'gpu':0}即可,代碼如下:
import tensorflow as tf sess = tf.Session(config=tf.ConfigProto(device_count={'gpu':0}))
對(duì)于Keras,則調(diào)用后端函數(shù),設(shè)置其使用如上定義的Session即可,代碼如下:
import tensorflow as tf import keras.backend.tensorflow_backend as KTF KTF.set_session(tf.Session(config=tf.ConfigProto(device_count={'gpu':0})))
對(duì)于多線程以及GPU內(nèi)存設(shè)置等可以參見(jiàn)Keras設(shè)定GPU使用內(nèi)存大小(Tensorflow backend)。
3、第三種是使用CUDA_VISIBLE_DEVICES命令行參數(shù),代碼如下:
CUDA_VISIBLE_DEVICES="0" python3 train.py
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python?SDK實(shí)現(xiàn)私服上傳下載的示例
本文主要介紹了Python?SDK實(shí)現(xiàn)私服上傳下載的示例,文中通過(guò)示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下<BR>2021-11-11使用python+pandas讀寫(xiě)xlsx格式中的數(shù)據(jù)
這篇文章主要介紹了使用python+pandas讀寫(xiě)xlsx格式中的數(shù)據(jù),文章圍繞主題展開(kāi)詳細(xì)的內(nèi)容介紹,具有一定的參考價(jià)值,感興趣的小伙伴可以參考一下2022-08-08python判斷字符串的前兩個(gè)字母是否是"id"的示例代碼
這篇文章主要介紹了python判斷字符串的前兩個(gè)字母是否是”id",使用 Python 的字符串切片來(lái)判斷一個(gè)字符串的前兩個(gè)字母是否是 "id",本文結(jié)合示例代碼給大家介紹的非常詳細(xì),需要的朋友可以參考下2023-04-04Python并發(fā)編程的幾種實(shí)現(xiàn)方式
Python并發(fā)編程讓程序能同時(shí)執(zhí)行多個(gè)任務(wù),Python提供多種并發(fā)實(shí)現(xiàn)方式,包括多線程、多進(jìn)程、異步編程等,多線程受全局解釋器鎖(GIL)影響,在CPU密集型任務(wù)上不提升性能,但適合I/O密集型任務(wù),多進(jìn)程適用于CPU密集型任務(wù)2024-10-10python中關(guān)于對(duì)super()函數(shù)疑問(wèn)解惑
Python中的super()是用于調(diào)用父類(lèi)(或父類(lèi)的父類(lèi)...)方法的函數(shù),主要用于多繼承,單繼承問(wèn)題不大,下面這篇文章主要給大家介紹了關(guān)于python中關(guān)于對(duì)super()函數(shù)疑問(wèn)解惑的相關(guān)資料,需要的朋友可以參考下2022-08-08Python實(shí)現(xiàn)連接MySQL數(shù)據(jù)庫(kù)的常見(jiàn)方法總結(jié)
這篇文章主要為大家介紹了兩種Python中用來(lái)連接 MySQL 數(shù)據(jù)庫(kù)的方法,并且針對(duì)這兩種方法,我們還將對(duì)代碼進(jìn)行封裝和優(yōu)化,提高程序的可讀性和健壯性,需要的可以收藏一下2023-05-05