pytorch教程之Tensor的值及操作使用學(xué)習(xí)
1、Tensors
Tensors are similar to NumPy's ndaeeays,不同的是可以在GPU上使用和加速計(jì)算。
導(dǎo)入包
from __future__ import print_function import torch
建立5*3的矩陣,未初始化
x = torch.empty(5,3) print(x)
out
tensor([[ 1.4395e-36, 4.5848e-41, 1.4395e-36], [ 4.5848e-41, 1.4395e-36, 4.5848e-41], [ 1.4395e-36, 4.5848e-41, 2.8026e-45], [-1.9501e+00, 8.5165e+23, 0.0000e+00], [ 2.5223e-43, 0.0000e+00, 0.0000e+00]])
建立隨機(jī)初始化矩陣
x = torch.rand(5,3) print(x)
out
tensor([[ 0.8074, 0.9175, 0.8109], [ 0.3313, 0.5902, 0.9179], [ 0.6562, 0.3283, 0.9798], [ 0.8218, 0.0817, 0.4454], [ 0.5934, 0.0040, 0.3411]])
建立零初始化矩陣,數(shù)據(jù)類型是Long
... x = torch.zeros(5,3,dtype = torch.long) print(x) ...
out
tensor([[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0]])
建立一個(gè)tensor數(shù)據(jù)來(lái)源于data
x = torch.tensor([5.5,3]) print(x)
out
tensor([ 5.5000, 3.0000])
在原有tnesor的基礎(chǔ)上形成新的tensor,會(huì)繼承原有tensor的shapee和dtype等屬性,當(dāng)然我么也可以修改這些屬性
x = x.new_ones(5,3,dtype = torch.double) print(x) x = torch.randn_like(x,dype = torch.float) print(x)
out
tensor([[ 1., 1., 1.], [ 1., 1., 1.], [ 1., 1., 1.], [ 1., 1., 1.], [ 1., 1., 1.]], dtype=torch.float64) tensor([[-0.0730, -0.0716, -0.8259], [-1.7004, 0.8790, -0.0659], [-0.8969, 0.8736, -0.6035], [-0.1539, -2.9178, -0.7456], [-0.0245, 0.4075, 1.4904]])
獲取tensor的size
print(x.size())
out
torch.Size([5, 3])
torch.size是一個(gè)元組,支持所有元組(tuple)的操作
2、對(duì)Tensor的操作
實(shí)現(xiàn)加法的四種方式
方法一L
print(x+y)
方法二
print(torch.add(x,y))
方法三:輸出給額外的tensor
result = torch.empty(5,3) torch.add(x,y ,out= result) print (result)
方法四:原地替換-結(jié)果存放在y中
print(y)
所有原地替換
所有原地替換tensor的操作都有后綴,比如x.copy(y),會(huì)改變x
使用標(biāo)準(zhǔn)的numpy操作
print(x[:1]
out
tensor([-0.0716, 0.8790, 0.8736, -2.9178, 0.4075])
使用torch.view 改變tensor的形狀
x = torch.randn(4,4) y = x.view(16) z = x.view(-1,8) # the size -1 is inferred from other dimensions print (x.size(),y.xize(),z.size())
out
torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])
tensor轉(zhuǎn)化為numpy的數(shù)字,使用item
x = torch.rnadn(1) print(x) print(x.item())
Torch Tensor 和numpy的相互轉(zhuǎn)換
a = torch.ones(5) print (a)
out
tensor([ 1., 1., 1., 1., 1.])
并且改變tensor的值會(huì)同時(shí)改變numpy的值
a.add_(1) print(a) print(b)
out
tensor([ 2., 2., 2., 2., 2.]) [ 2. 2. 2. 2. 2.]
將numpy array轉(zhuǎn)化為pytorch Tensor
import numpy as np a = np.ones(5) b = torch.from_numpy(a) np.add(a,1,out = a ) print(a) print(b)
out
[ 2. 2. 2. 2. 2.] tensor([ 2., 2., 2., 2., 2.], dtype=torch.float64)
所有在cpu上的tensor都支持numpy轉(zhuǎn)化,除了char形的tensor
CUDA Tensors
Tensors 可以被移動(dòng)到其他設(shè)備使用.to的方法
... if torch.cuda.is_avaulable(): device = torch.device(“cuda”) y = torch.ones_like(x,device = devcie) x= x.to(device) z = x+y print(z) print(z.to(“cpu”,torch.double)) ...
out
tensor([-1.0620], device='cuda:0') tensor([-1.0620], dtype=torch.float64)
以上就是pytorch教程之Tensor學(xué)習(xí)筆記的詳細(xì)內(nèi)容,更多關(guān)于pytorch教程的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
python對(duì)象及面向?qū)ο蠹夹g(shù)詳解
這篇文章主要介紹了python對(duì)象及面向?qū)ο蠹夹g(shù),結(jié)合實(shí)例形式詳細(xì)分析了Python面向?qū)ο笏婕暗念?、?duì)象、方法、屬性等概念與使用技巧,需要的朋友可以參考下2016-07-07Python實(shí)現(xiàn)簡(jiǎn)單的代理服務(wù)器
這篇文章主要介紹了Python實(shí)現(xiàn)簡(jiǎn)單的代理服務(wù)器,可實(shí)現(xiàn)代理服務(wù)器基本的包轉(zhuǎn)發(fā)功能,具有一定參考借鑒價(jià)值,需要的朋友可以參考下2015-07-07Python中Parser的超詳細(xì)用法實(shí)例
Parser模塊為Python的內(nèi)部解析器和字節(jié)碼編譯器提供了一個(gè)接口,該接口的主要目的是允許Python代碼編輯Python表達(dá)式的分析樹(shù)并從中創(chuàng)建可執(zhí)行代碼,這篇文章主要給大家介紹了關(guān)于Python中Parser超詳細(xì)用法的相關(guān)資料,需要的朋友可以參考下2022-07-07Python BentoML構(gòu)建部署和管理機(jī)器學(xué)習(xí)模型技巧掌握
BentoML是一個(gè)開(kāi)源的Python框架,旨在簡(jiǎn)化機(jī)器學(xué)習(xí)模型的打包、部署和管理,本文將深入介紹BentoML的功能和用法,提供詳細(xì)的示例代碼和解釋,幫助你更好地理解和應(yīng)用這個(gè)強(qiáng)大的工具2024-01-01Python程序?qū)崿F(xiàn)向MySQL存放圖片
這篇文章主要介紹了Python程序?qū)崿F(xiàn)向MySQL存放圖片,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-03-03