TensorFlow如何指定GPU訓練模型
如何指定GPU訓練模型
Linux 查看當前服務器 GPU 的占用情況可以使用 nvidia-smi 命令,如下所示:
nvidia-smi
關于 nvidia-smi 命令輸出的詳細解釋,可參考筆者的另外一篇文章:GPU狀態(tài)監(jiān)測 nvidia-smi 命令詳解。
在此不再贅述,本文主要分享一下在用 TensorFlow 訓練模型時如何指定 GPU。
在用 TensorFlow 訓練深度學習模型的時候,若無手動指定,默認是選用第0塊來訓練,而且其他幾塊 GPU 也會被顯示占用。
有時候,我們更希望可以自己指定一塊或者多塊 GPU 來訓練模型,接下來介紹一種常用的也是比較有效的方法:
舉個例子
如果要指定只用第0塊 GPU 訓練,可以在 python 代碼中如下指定:
import os os.environ['CUDA_VISIBLE_DEVICES']='0'
運行 python 程序后,可發(fā)現就只有第0塊 GPU 顯示被占用,如上圖所示。
如果要指定多塊 GPU
可以如下:
os.environ['CUDA_VISIBLE_DEVICES']='1,2'
當然,上述這種方法不太方便,每次運行若換用 GPU 訓練都需要改代碼,可以在運行 python 程序的時候進行指定:
CUDA_VISIBLE_DEVICES=0 python textCnn.py
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
python3中利用filter函數輸出小于某個數的所有回文數實例
今天小編就為大家分享一篇 python3中利用filter函數輸出小于某個數的所有回文數實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-11-11python項目中requirements.txt的用法實例教程
Python項目中必須包含一個requirements.txt文件,用于記錄所有依賴包及其精確的版本號,以便新環(huán)境部署,下面這篇文章主要給大家介紹了關于python項目中requirements.txt用法的相關資料,需要的朋友可以參考下2022-06-06