欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Tensorflow全局設(shè)置可見(jiàn)GPU編號(hào)操作

 更新時(shí)間:2020年06月30日 09:29:33   作者:silent56_th  
這篇文章主要介紹了Tensorflow全局設(shè)置可見(jiàn)GPU編號(hào)操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

筆者需要tensorflow僅運(yùn)行在一個(gè)GPU上(機(jī)器本身有多GPU),而且需要依據(jù)系統(tǒng)參數(shù)動(dòng)態(tài)調(diào)節(jié),故無(wú)法簡(jiǎn)單使用CUDA_VISIBLE_DEVICES。

一種方式是全局使用tf.device函數(shù)生成的域,但設(shè)備號(hào)需要在繪制Graph前指定,仍然不夠靈活。

查閱文檔發(fā)現(xiàn)config的GPUOptions中的visible_device_list可以定義GPU編號(hào)從visible到virtual的映射,即可以設(shè)置tensorflow可見(jiàn)的GPU device,從而全局設(shè)置了tensorflow可見(jiàn)的GPU編號(hào)。代碼如下:

config = tf.ConfigProto()
config.gpu_options.visible_device_list = str(device_num)
sess = tf.Session(config=config)

參考 多卡服務(wù)器下隱藏部分 GPU 和 TensorFlow 的顯存使用設(shè)置,還可以通過(guò)os包設(shè)置全局變量CUDA_VISIBLE_DEVICES,代碼如下:

os.environ["CUDA_VISIBLE_DEVICES"] = "2"

補(bǔ)充知識(shí):TensorFlow 設(shè)置程序可見(jiàn)GPU與邏輯分區(qū)

TensorFlow 設(shè)置程序可見(jiàn)GPU(多GPU情況)

import matplotlib as mpl
import matplotlib.pyplot as plt
%matplotlib inline
import numpy as np
import sklearn
import pandas as pd
import os
import sys
import time
import tensorflow as tf

from tensorflow_core.python.keras.api._v2 import keras

print(tf.__version__)
print(sys.version_info)
for module in mpl, np, pd, sklearn, tf, keras:
 print(module.__name__, module.__version__)

# 打印變量所在位置
tf.debugging.set_log_device_placement(True) 

# 獲取物理GPU的個(gè)數(shù)
gpus = tf.config.experimental.list_physical_devices("GPU") 

if len(gpus) >= 1:
 # 設(shè)置第幾個(gè)GPU 當(dāng)前程序可見(jiàn)
 tf.config.experimental.set_visible_devices(gpus[0], "GPU")
 
print("物理GPU個(gè)數(shù):", len(gpus))

# 獲取邏輯GPU的個(gè)數(shù)
logical_gpus = tf.config.experimental.list_logical_devices("GPU") 
print("邏輯GPU個(gè)數(shù):", len(logical_gpus))

TensorFlow 設(shè)置GPU的 邏輯分區(qū)

import matplotlib as mpl
import matplotlib.pyplot as plt
%matplotlib inline
import numpy as np
import sklearn
import pandas as pd
import os
import sys
import time
import tensorflow as tf

from tensorflow_core.python.keras.api._v2 import keras

print(tf.__version__)
print(sys.version_info)
for module in mpl, np, pd, sklearn, tf, keras:
 print(module.__name__, module.__version__)

# 打印變量所在位置
tf.debugging.set_log_device_placement(True) 

# 獲取物理GPU的個(gè)數(shù)
gpus = tf.config.experimental.list_physical_devices("GPU") 

if len(gpus) >= 1:
 # 設(shè)置第幾個(gè)GPU 當(dāng)前程序可見(jiàn)
 tf.config.experimental.set_visible_devices(gpus[0], "GPU")
 
 # 設(shè)置GPU的 邏輯分區(qū)
 tf.config.experimental.set_virtual_device_configuration(
  gpus[0], 
  [tf.config.experimental.VirtualDeviceConfiguration(memory_limit=3072),
   tf.config.experimental.VirtualDeviceConfiguration(memory_limit=3072)])

print("物理GPU個(gè)數(shù):", len(gpus))

# 獲取邏輯GPU的個(gè)數(shù)
logical_gpus = tf.config.experimental.list_logical_devices("GPU") 
print("邏輯GPU個(gè)數(shù):", len(logical_gpus))

TensorFlow 手動(dòng)設(shè)置處理GPU

import matplotlib as mpl
import matplotlib.pyplot as plt
%matplotlib inline
import numpy as np
import sklearn
import pandas as pd
import os
import sys
import time
import tensorflow as tf

from tensorflow_core.python.keras.api._v2 import keras

print(tf.__version__)
print(sys.version_info)
for module in mpl, np, pd, sklearn, tf, keras:
 print(module.__name__, module.__version__)

# 打印變量所在位置
tf.debugging.set_log_device_placement(True) 

# 自動(dòng)指定處理設(shè)備
tf.config.set_soft_device_placement(True)

# 獲取物理GPU的個(gè)數(shù)
gpus = tf.config.experimental.list_physical_devices("GPU") 
for gpu in gpus:
 # 設(shè)置內(nèi)存自增長(zhǎng)方式
 tf.config.experimental.set_memory_growth(gpu, True) 
print("物理GPU個(gè)數(shù):", len(gpus))

# 獲取邏輯GPU的個(gè)數(shù)
logical_gpus = tf.config.experimental.list_logical_devices("GPU") 
print("邏輯GPU個(gè)數(shù):", len(logical_gpus))

c = []

# 循環(huán)遍歷當(dāng)前邏輯GPU
for gpu in logical_gpus:
 print(gpu.name)

 # 手動(dòng)設(shè)置處理GPU
 with tf.device(gpu.name):
  a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
  b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]])
  
  # 矩陣相乘 并且添加至列表
  c.append(tf.matmul(a, b))

# 手動(dòng)設(shè)置處理GPU
with tf.device("/GPU:0"):
 matmul_sum = tf.add_n(c)

print(matmul_sum)

以上這篇Tensorflow全局設(shè)置可見(jiàn)GPU編號(hào)操作就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論