Python3+pycuda實現(xiàn)執(zhí)行簡單GPU計算任務
技術背景
GPU的加速技術在深度學習、量子計算領域都已經(jīng)被廣泛的應用。其適用的計算模型是小內存的密集型計算場景,如果計算的模型內存較大,則需要使用到共享內存,這會直接導致巨大的數(shù)據(jù)交互的運算量,通信開銷較大。因為pycuda的出現(xiàn),也使得我們可以直接在python內直接使用GPU函數(shù),當然也可以直接在python代碼中集成一些C++的代碼,用于構建GPU計算的函數(shù)。有一個專門介紹pycuda使用案例的中文開源代碼倉可以簡單參考一些實現(xiàn)的示例,但是這里面的示例數(shù)量還是比較有限,更多的案例可以直接參考pycuda官方文檔。
pycuda環(huán)境配置
pycuda的安裝環(huán)境很大程度上取決約顯卡驅動本身是否能夠安裝成功,除了安裝pycuda庫本身之外,重點是需要確保如下的指令可以運行成功:
[dechin@dechin-manjaro pycuda]$ nvidia-smi
Sun Mar 21 20:26:43 2021
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 455.45.01 Driver Version: 455.45.01 CUDA Version: 11.1 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 GeForce MX250 Off | 00000000:3C:00.0 Off | N/A |
| N/A 48C P0 N/A / N/A | 0MiB / 2002MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
| No running processes found |
+-----------------------------------------------------------------------------+
上述返回的結果是一個沒有GPU任務情況下的展示界面,包含有顯卡型號、顯卡內存等信息。如果存在執(zhí)行的任務,則顯示結果如下案例所示:
[dechin@dechin-manjaro pycuda]$ nvidia-smi
Sun Mar 21 20:56:04 2021
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 455.45.01 Driver Version: 455.45.01 CUDA Version: 11.1 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 GeForce MX250 Off | 00000000:3C:00.0 Off | N/A |
| N/A 47C P0 N/A / N/A | 31MiB / 2002MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
| 0 N/A N/A 18427 C python3 29MiB |
+-----------------------------------------------------------------------------+
我們發(fā)現(xiàn)這里多了一個pid為18427的python的進程正在使用GPU進行計算。在運算過程中,如果任務未能夠執(zhí)行成功,有可能在內存中遺留一個進程,這需要我們自己手動去釋放。最簡單粗暴的方法就是:直接使用kill -9 pid來殺死殘留的進程。我們可以使用pycuda自帶的函數(shù)接口,也可以自己寫C++代碼來實現(xiàn)GPU計算的相關功能,當然一般情況下更加推薦使用pycuda自帶的函數(shù)。以下為一部分已經(jīng)實現(xiàn)的接口函數(shù),比如gpuarray的函數(shù):
再比如cumath的函數(shù):
使用GPU計算向量指數(shù)
對于一個向量的指數(shù)而言,其實就是將每一個的向量元素取指數(shù)。當然,這與前面一篇關于量子門操作的博客中介紹的矩陣指數(shù)略有區(qū)別,這點要注意區(qū)分。
在下面的示例中,我們對比了numpy中實現(xiàn)的指數(shù)運算和pycuda中實現(xiàn)的指數(shù)運算。
# array_exp.py import pycuda.autoinit import pycuda.gpuarray as ga import pycuda.cumath as gm import numpy as np import sys if sys.argv[1] == '-l': length = int(sys.argv[2]) # 從命令行獲取參數(shù)值 np.random.seed(1) array = np.random.randn(length).astype(np.float32) array_gpu = ga.to_gpu(array) exp_array = np.exp(array) print (exp_array) exp_array_gpu = gm.exp(array_gpu) gpu_exp_array = exp_array_gpu.get() print (gpu_exp_array)
這里面我們計算一個隨機向量的指數(shù),向量的維度length是從命令行獲取的一個參數(shù),上述代碼的執(zhí)行方式和執(zhí)行結果如下所示:
[dechin@dechin-manjaro pycuda]$ python3 array_exp.py -l 5
[5.0750957 0.5423974 0.58968204 0.34199178 2.3759744 ]
[5.075096 0.5423974 0.58968204 0.34199178 2.3759747 ]
我們先確保兩者計算出來的結果是一致的,這里我們可以觀察到,兩個計算的結果只保障了7位的有效數(shù)字是相等的,這一點在大部分的場景下精度都是有保障的。接下來我們使用timeit來統(tǒng)計和對比兩者的性能:
# array_exp.py import pycuda.autoinit import pycuda.gpuarray as ga import pycuda.cumath as gm import numpy as np import sys import timeit if sys.argv[1] == '-l': length = int(sys.argv[2]) np.random.seed(1) array = np.random.randn(length).astype(np.float32) array_gpu = ga.to_gpu(array) def npexp(): exp_array = np.exp(array) def gmexp(): exp_array_gpu = gm.exp(array_gpu) # gpu_exp_array = exp_array_gpu.get() if __name__ == '__main__': n = 1000 t1 = timeit.timeit('npexp()', setup='from __main__ import npexp', number=n) print (t1) t2 = timeit.timeit('gmexp()', setup='from __main__ import gmexp', number=n) print (t2)
這里也順便介紹一下timeit的使用方法:這個函數(shù)的輸入分別是:函數(shù)名、函數(shù)的導入方式、函數(shù)的重復次數(shù)。這里需要特別說明的是,如果在函數(shù)的導入方式中,不使用__main__函數(shù)進行導入,即使是本文件下的python函數(shù),也是無法被導入成功的。在輸入的向量達到一定的規(guī)模大小時,我們發(fā)現(xiàn)在執(zhí)行時間上相比于numpy有非常大的優(yōu)勢。當然還有一點需要注意的是,由于我們測試的是計算速度,原本使用了get()函數(shù)將GPU中計算的結果進行導出,但是這部分其實不應該包含在計算的時間內,因此后來又注釋掉了。具體的測試數(shù)據(jù)如下所示:
[dechin@dechin-manjaro pycuda]$ python3 array_exp.py -l 10000000
26.13127974300005
3.469969915000547
總結概要
使用GPU來進行計算,可以極大程度上的加速我們所需要計算的任務,這得益于GPU強大的自帶的并行化技術。pycuda的出現(xiàn),使得我們不需要手工去寫GPU的C或者C++代碼也可以調用GPU來進行計算,還提供了眾多的python接口可以直接使用。經(jīng)過測試,本文給出了一些pycuda的基本使用方法示例,以及初步的測試結果,從測試結果中我們進一步明確了pycuda的高性能特性。
到此這篇關于Python3+pycuda實現(xiàn)執(zhí)行簡單GPU計算任務的文章就介紹到這了,更多相關Python pycuda計算GPU內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
Django 實現(xiàn)admin后臺顯示圖片縮略圖的例子
今天小編就為大家分享一篇Django 實現(xiàn)admin后臺顯示圖片縮略圖的例子,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-07-07使用python編寫批量卸載手機中安裝的android應用腳本
該腳本的功能是卸載android手機中安裝的所有第三方應用,主要是使用adb shell pm、adb uninstall 命令,需要的朋友可以參考下2014-07-07解決python腳本中error: unrecognized arguments: True錯誤
這篇文章主要介紹了解決python腳本中error: unrecognized arguments: True錯誤,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04