pytorch使用指定GPU訓練的實例
本文適合多GPU的機器,并且每個用戶需要單獨使用GPU訓練。
雖然pytorch提供了指定gpu的幾種方式,但是使用不當?shù)脑挄龅給ut of memory的問題,主要是因為pytorch會在第0塊gpu上初始化,并且會占用一定空間的顯存。這種情況下,經(jīng)常會出現(xiàn)指定的gpu明明是空閑的,但是因為第0塊gpu被占滿而無法運行,一直報out of memory錯誤。
解決方案如下:
指定環(huán)境變量,屏蔽第0塊gpu
CUDA_VISIBLE_DEVICES = 1 main.py
這句話表示只有第1塊gpu可見,其他gpu不可用,此時要注意第1塊gpu已經(jīng)變成第0塊,因此代碼里應該使用編號0來指定gpu。如果依然使用cuda:1會報invalid device ordinal。
當然也可以在代碼里使用os模塊達到同樣效果:
import os #多塊使用逗號隔開 os.environ['CUDA_VISIBLE_DEVICES'] = '1'
使用torch.cuda.device with torch.cuda.device(1): ...
注意這種情況下gpu編號也會改變
關于這個問題的討論,感興趣的也可以去這里查看cuda out of memory error when GPU0 memory is fully utilized
以上這篇pytorch使用指定GPU訓練的實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
如何使用django-treebeard實現(xiàn)樹類型存儲與編輯
這篇文章主要介紹了使用django-treebeard實現(xiàn)樹類型存儲與編輯的宣相關操作代碼,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友參考下吧2024-08-08python中Ansible模塊的Playbook的具體使用
這篇文章主要介紹了python中Ansible模塊的Playbook的具體使用,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-05-05