Keras設(shè)定GPU使用內(nèi)存大小方式(Tensorflow backend)
通過設(shè)置Keras的Tensorflow后端的全局變量達到。
import os import tensorflow as tf import keras.backend.tensorflow_backend as KTF def get_session(gpu_fraction=0.3): '''Assume that you have 6GB of GPU memory and want to allocate ~2GB''' num_threads = os.environ.get('OMP_NUM_THREADS') gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=gpu_fraction) if num_threads: return tf.Session(config=tf.ConfigProto( gpu_options=gpu_options, intra_op_parallelism_threads=num_threads)) else: return tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
使用過程中顯示的設(shè)置session:
import keras.backend.tensorflow_backend as KTF
KTF.set_session(get_session())
補充知識:限制tensorflow的運行內(nèi)存 (keras.backend.tensorflow)
我就廢話不多說了,大家還是直接看代碼吧!
import tensorflow as tf from keras.backend.tensorflow_backend import set_session config = tf.ConfigProto() config.gpu_options.per_process_gpu_memory_fraction = 0.5 #half of the memory set_session(tf.Session(config=config))
以上這篇Keras設(shè)定GPU使用內(nèi)存大小方式(Tensorflow backend)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
在Python中居然可以定義兩個同名通參數(shù)的函數(shù)
今天小編就為大家分享一篇在Python中居然可以定義兩個同名通參數(shù)的函數(shù),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-01-011 行 Python 代碼快速實現(xiàn) FTP 服務(wù)器
FTP 服務(wù)器,在此之前我都是使用Linux的vsftpd軟件包來搭建FTP服務(wù)器的,現(xiàn)在發(fā)現(xiàn)了利用pyftpdlib可以更加簡單的方法即可實現(xiàn)FTP服務(wù)器的功能。下面小編給大家?guī)砹? 行 Python 代碼快速實現(xiàn) FTP 服務(wù)器,需要的朋友參考下2018-01-01