Python深度學(xué)習(xí)之Pytorch初步使用
一、Tensor
Tensor(張量是一個(gè)統(tǒng)稱,其中包括很多類型):
0階張量:標(biāo)量、常數(shù)、0-D Tensor;1階張量:向量、1-D Tensor;2階張量:矩陣、2-D Tensor;……
二、Pytorch如何創(chuàng)建張量
2.1 創(chuàng)建張量
import torch t = torch.Tensor([1, 2, 3]) print(t)
2.2 tensor與ndarray的關(guān)系
兩者之間可以相互轉(zhuǎn)化
import torch import numpy as np t1 = np.array(torch.Tensor([[1, 2, 3], [1, 2, 3]])) t2 = torch.Tensor(np.array([[1, 2, 3], [1, 2, 3]]))
運(yùn)行結(jié)果:
2.3 常用api
torch.empty(x,y)
創(chuàng)建x行y列為空的tensor。
torch.ones([x, y])
創(chuàng)建x行y列全為1的tensor。
torch.zeros([x,y])
創(chuàng)建x行y列全為0的temsor。
zeros與empty的區(qū)別
后者的數(shù)據(jù)類型是不固定的。
torch.rand(x, y)
創(chuàng)建3行4列的隨機(jī)數(shù),隨機(jī)數(shù)是0-1。
torch.randint(low, high, size)
創(chuàng)建一個(gè)size的tensor,隨機(jī)數(shù)為low到high之間。
torch.randn([x, y])
創(chuàng)建一個(gè)x行y列的tensor,隨機(jī)數(shù)的分布式均值為0,方差1。
2.4 常用方法
item():
獲取tensor中的元素,注意只有
一個(gè)元素
的時(shí)候才可以用。
numpy():
轉(zhuǎn)化成
ndarray
類型。
size()
獲取tensor的
形狀
。
view()
可以傳參,表示獲取第幾個(gè)。若參數(shù)為-1,表示不確定,與另一個(gè)參數(shù)的乘積等于原始形狀的乘積。 例如:原始形狀為8,則
淺拷貝
,tensor的形狀改變
。view(-1,2)
⇒view(4, 2)
; 參數(shù)只有-1,表示一維。
dim()
獲取維度。
max()
獲取最大值。
t()
轉(zhuǎn)置。
transpose(x,y)
x,y是size里面返回的形狀相換。
permute()
傳入size()返回的形狀的順序。
transpose與permute的區(qū)別
前者傳入列即可相互交換;后者傳入列會(huì)根據(jù)傳入的順序來(lái)進(jìn)行轉(zhuǎn)化,且需要傳入所有列數(shù)的索引。
取值[第一階, 第二階,……]
一個(gè)逗號(hào)隔開代表一個(gè)階乘冒號(hào)代表全取
賦值[第一階, 第二階,……]
直接賦值即可
三、數(shù)據(jù)類型
3.1 獲取數(shù)據(jù)類型
tensor.dtype
獲取數(shù)據(jù)類型
設(shè)置數(shù)據(jù)類型
注意使用
Tensor()
不能指定數(shù)據(jù)類型。
type()
修改
數(shù)據(jù)類型。
四、tensor的其他操作
4.1 相加
torch.add(x, y)
將x和y
相加
。
直接相加
tensor.add()
使用add_()
可相加后直接保存在tensor中
4.2 tensor與數(shù)字的操作
tensor + 數(shù)值
五、CUDA中的tensor
CUDA
(Compute Unified Device Architecture),是NVIDIA推出的運(yùn)算平臺(tái)。CUDATM是一種由NVIDIA推出的通用并行計(jì)算架構(gòu),該架構(gòu)使GPU能夠解決復(fù)雜的計(jì)算問(wèn)題。
torch.cuda這個(gè)模塊增加了對(duì)CUDA tensor的支持,能夠在cpu和gpu上使用相同的方法操作tensor通過(guò).to
方法能夠把一個(gè)tensor轉(zhuǎn)移到另外一個(gè)設(shè)備(比如從CPU轉(zhuǎn)到GPU)
可以使用torch.cuda.is_available()
判斷電腦是否支持GPU
到此這篇關(guān)于Python深度學(xué)習(xí)之Pytorch初步使用的文章就介紹到這了,更多相關(guān)Pytorch初步使用內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
pytorch常用數(shù)據(jù)類型所占字節(jié)數(shù)對(duì)照表一覽
這篇文章主要介紹了pytorch常用數(shù)據(jù)類型所占字節(jié)數(shù)對(duì)照表一覽,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-05-05Python?IDLE?Subprocess?Connection?Error的簡(jiǎn)單解決方法
最近用要Python處理一點(diǎn)事,就打開Python IDLE,結(jié)果出現(xiàn)錯(cuò)誤,下面這篇文章主要給大家介紹了關(guān)于Python?IDLE?Subprocess?Connection?Error的簡(jiǎn)單解決方法,需要的朋友可以參考下2023-01-01Python內(nèi)建函數(shù)之raw_input()與input()代碼解析
這篇文章主要介紹了Python內(nèi)建函數(shù)之raw_input()與input()代碼解析,具有一定參考價(jià)值,需要的朋友可以了解下。2017-10-10利用Tensorboard繪制網(wǎng)絡(luò)識(shí)別準(zhǔn)確率和loss曲線實(shí)例
今天小編就為大家分享一篇利用Tensorboard繪制網(wǎng)絡(luò)識(shí)別準(zhǔn)確率和loss曲線實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-02-02Python+matplotlib實(shí)現(xiàn)計(jì)算兩個(gè)信號(hào)的交叉譜密度實(shí)例
這篇文章主要介紹了Python+matplotlib實(shí)現(xiàn)計(jì)算兩個(gè)信號(hào)的交叉譜密度實(shí)例,具有一定借鑒價(jià)值,需要的朋友可以參考下2018-01-01Keras框架中的epoch、bacth、batch size、iteration使用介紹
這篇文章主要介紹了Keras框架中的epoch、bacth、batch size、iteration使用介紹,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-06-06對(duì)numpy下的軸交換transpose和swapaxes的示例解讀
今天小編就為大家分享一篇對(duì)numpy下的軸交換transpose和swapaxes的示例解讀,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-06-06解決pycharm的Python console不能調(diào)試當(dāng)前程序的問(wèn)題
今天小編就為大家分享一篇解決pycharm的Python console不能調(diào)試當(dāng)前程序的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-01-01PyCharm最新激活碼(2020/10/27全網(wǎng)最新)
Pycharm最新激活碼全網(wǎng)最新(2020/10/27更新),適用Intellij idea 2020.2.x,WebStorm 2020.2.x,Pycharm 2020.2.x2020-10-10