欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

PyTorch使用教程之Tensor包詳解

 更新時(shí)間:2025年01月19日 10:57:46   作者:深圖智能  
這篇文章介紹了PyTorch中的張量(Tensor)數(shù)據(jù)結(jié)構(gòu),包括張量的數(shù)據(jù)類(lèi)型、初始化、常用操作、屬性等,張量是PyTorch框架中的核心數(shù)據(jù)結(jié)構(gòu),支持多種數(shù)據(jù)類(lèi)型,可以通過(guò)工廠函數(shù)構(gòu)造張量,并提供了豐富的操作和屬性,感興趣的朋友跟隨小編一起看看吧

1、張量Tensor

張量(Tensor)是PyTorch深度學(xué)習(xí)框架中的核心數(shù)據(jù)結(jié)構(gòu),在PyTorch軟件框架中,幾乎所有的數(shù)據(jù)計(jì)算和信息流都是以Tensor的形式在表達(dá)。官方給出的定義是:

一個(gè) torch.Tensor是一個(gè)包含單個(gè)數(shù)據(jù)類(lèi)型元素的多維矩陣
關(guān)鍵詞

  • 單個(gè)數(shù)據(jù)類(lèi)型:在一個(gè)張量數(shù)據(jù)結(jié)構(gòu)內(nèi),只會(huì)包含一種數(shù)據(jù)類(lèi)型。
  • 多維矩陣:簡(jiǎn)單來(lái)說(shuō)張量就是為了高維矩陣而創(chuàng)建的,常用的NCHW格式矩陣,就是4維矩陣。

學(xué)習(xí)Tensor這個(gè)包的時(shí)候,主要是關(guān)注張量的數(shù)據(jù)類(lèi)型、張量的一些基本操作。

2、數(shù)據(jù)類(lèi)型

為了支持各種精度的訓(xùn)練、推理,Tensor支持的數(shù)據(jù)類(lèi)型繁多。這里,僅列出在做計(jì)算機(jī)視覺(jué)相關(guān)的常用數(shù)據(jù)類(lèi)型。

數(shù)據(jù)類(lèi)型dtype
32 位浮點(diǎn)數(shù)torch.float32 或 torch.float
64 位浮點(diǎn)數(shù)torch.float64 或 torch.double
16 位浮點(diǎn)數(shù)1torch.float16 或 torch.half
16 位浮點(diǎn)數(shù) 2torch.bfloat16
8 位整數(shù)(無(wú)符號(hào))torch.uint8
32 位整數(shù)(無(wú)符號(hào))torch.uint32
8 位整數(shù)(帶符號(hào))torch.int8
32 位整數(shù)(帶符號(hào))torch.int32 或 torch.int
布爾值torch.bool
量化 8 位整數(shù)(無(wú)符號(hào))torch.quint8
量化 8 位整數(shù)(帶符號(hào))ttorch.qint8
量化 32 位整數(shù)(帶符號(hào))torch.qint32
量化 4 位整數(shù)(無(wú)符號(hào))torch.quint4x2

要構(gòu)造張量,建議使用工廠函數(shù),例如 torch.empty(),其中使用 dtype 參數(shù)。 torch.Tensor 構(gòu)造函數(shù)是默認(rèn)張量類(lèi)型 (torch.FloatTensor) 的別名。也就是說(shuō),在構(gòu)造張量時(shí),不傳入數(shù)據(jù)類(lèi)型參數(shù),默認(rèn)就是32位浮點(diǎn)數(shù)。

3、初始化(構(gòu)造張量)

可以使用 torch.tensor() 構(gòu)造函數(shù)從 Python list 或序列構(gòu)造張量。

>>> torch.tensor([[1., -1.], [1., -1.]])
tensor([[ 1.0000, -1.0000],
        [ 1.0000, -1.0000]])
>>> torch.tensor(np.array([[1, 2, 3], [4, 5, 6]]))
tensor([[ 1,  2,  3],
        [ 4,  5,  6]])

有幾個(gè)注意點(diǎn):

  • torch.tensor() 始終復(fù)制 data。也就是說(shuō)使用list或者序列構(gòu)造張量時(shí),均為以深拷貝的方式創(chuàng)建。
  • 可以通過(guò)將 torch.dtype 和/或 torch.device 傳遞給構(gòu)造函數(shù)或張量創(chuàng)建操作來(lái)構(gòu)造特定數(shù)據(jù)類(lèi)型的張量。例如:
>>> torch.zeros([2, 4], dtype=torch.int32)
tensor([[ 0,  0,  0,  0],
        [ 0,  0,  0,  0]], dtype=torch.int32)
>>> cuda0 = torch.device('cuda:0')
>>> torch.ones([2, 4], dtype=torch.float64, device=cuda0)
tensor([[ 1.0000,  1.0000,  1.0000,  1.0000],
        [ 1.0000,  1.0000,  1.0000,  1.0000]], dtype=torch.float64, device='cuda:0')

更多的張量構(gòu)造方式可以參考我的上一篇博文《PyTorch使用教程(2)-torch包》。

4、常用操作

張量支持索引、切片、連接、修改等操作,也支持大量的數(shù)學(xué)計(jì)算操作。常見(jiàn)的操作可以參考我的上一篇博文《PyTorch使用教程(2)-torch包》。這里,僅講述張量操作需注意的幾個(gè)點(diǎn)。

僅對(duì)一個(gè)單個(gè)值的張量的使用進(jìn)行說(shuō)明:
使用 torch.Tensor.item() 從包含單個(gè)值的張量中獲取 Python 數(shù)字。

>>> x = torch.tensor([[1]])
>>> x
tensor([[ 1]])
>>> x.item()
1
>>> x = torch.tensor(2.5)
>>> x
tensor(2.5000)
>>> x.item()
2.5

操作張量的方法如果用下劃線后綴標(biāo)記,則表示該操作時(shí)inplace操作:操作后的張量和輸入張量共享一個(gè)Storage。使用inplace操作,可以減小GPU緩存的使用。如torch.FloatTensor.abs_() 在原地計(jì)算絕對(duì)值并返回修改后的張量,而 torch.FloatTensor.abs() 在新張量中計(jì)算結(jié)果。

>>> x = torch.tensor([[1., -1.], [1., -1.]])
>>> x2=x.abs_()
>>> x.storage
<bound method Tensor.storage of tensor([[1., 1.],
        [1., 1.]])>
>>> x2.storage
<bound method Tensor.storage of tensor([[1., 1.],
        [1., 1.]])>

5、常用屬性

5.1 存儲(chǔ)(storage)

每個(gè)張量都與一個(gè)關(guān)聯(lián)的 torch.Storage,它保存其數(shù)據(jù),可以理解為數(shù)據(jù)緩地址。

>>> t = torch.rand((2,2))
>>> t.storage 
<bound method Tensor.storage of tensor([[0.3267, 0.8759],
        [0.9612, 0.1931]])>

5.2 形狀(shape)

可以使用shape屬性或者size()方法查看張量在每一維的長(zhǎng)度。

>>> x = torch.randn((3,3))
>>> x.shape
torch.Size([3, 3])
>>> x.size()
torch.Size([3, 3])

可以通過(guò)torch的reshape方法或者張量本身的View()方法進(jìn)行形狀的改變。

>>> t = torch.rand((3, 3))
>>> t
tensor([[0.8397, 0.6708, 0.8727],
        [0.8286, 0.3910, 0.9540],
        [0.8672, 0.4297, 0.1825]])
>>> m=t.view(1,9) 
>>> m
tensor([[0.8397, 0.6708, 0.8727, 0.8286, 0.3910, 0.9540, 0.8672, 0.4297, 0.1825]])

5.3 數(shù)據(jù)類(lèi)型(dtype)

張量的數(shù)據(jù)類(lèi)型(如torch.float32, torch.int64等)。

>>> t = torch.rand((3, 3))
>>> t.dtype
torch.float32

5.4 設(shè)備(device)

張量所在的設(shè)備(如CPU或GPU)。

>>> m = torch.rand((3, 3))
>>> m.device
device(type='cpu')

如需要在CPU和GPU之間進(jìn)行張量的移動(dòng),可以使用張量的to()方法。

將張量移動(dòng)到GPU(如果可用)。

>>> m=torch.rand((2,2))
>>> m.device
device(type='cpu')
>>> m.to('cuda')
tensor([[0.5340, 0.0079],
        [0.2983, 0.5315]], device='cuda:0')

將張量移動(dòng)至CPU

>>> m.to('cpu')
tensor([[0.5340, 0.0079],
        [0.2983, 0.5315]])

6、小結(jié)下

用一個(gè)表格,匯總下PyTorch中tensor(張量)的常用數(shù)據(jù)結(jié)構(gòu)及其相關(guān)屬性:

屬性/方法描述示例代碼
維度(Dimension)張量的維度,標(biāo)量為0維,向量為1維,矩陣為2維,以此類(lèi)推x = torch.tensor([[1, 2], [3, 4]]) (2維張量)
形狀(Shape)張量在各維度上的大小,返回一個(gè)元組print(x.shape) 輸出: torch.Size([2, 2])
大?。⊿ize)張量中元素的總數(shù),或各維度大小的元組(通過(guò)size()方法)print(x.size()) 輸出: torch.Size([2, 2]);print(x.numel()) 輸出: 4
數(shù)據(jù)類(lèi)型(Dtype)張量中元素的數(shù)據(jù)類(lèi)型x = torch.tensor([[1, 2], [3, 4]], dtype=torch.float32);print(x.dtype) 輸出: torch.float32
設(shè)備(Device)張量所在的設(shè)備(CPU或GPU)x = x.to('cuda')(如果GPU可用);print(x.device) 輸出: cuda:0(或類(lèi)似的)
是否要求梯度(Requires Grad)一個(gè)布爾值,指示是否需要對(duì)該張量進(jìn)行梯度計(jì)算x.requires_grad_(True);print(x.requires_grad) 輸出: True
梯度(Grad)如果requires_grad=True,則存儲(chǔ)該張量的梯度y = x.sum();y.backward();print(x.grad) 輸出張量的梯度
數(shù)據(jù)(Data)張量中存儲(chǔ)的實(shí)際數(shù)據(jù)x = torch.tensor([[1, 2], [3, 4]]);print(x) 輸出張量的數(shù)據(jù)
索引與切片使用整數(shù)、切片或布爾索引來(lái)訪問(wèn)或修改張量的元素x[0, 1] 訪問(wèn)第1行第2列的元素;x[:, 0] 訪問(wèn)第1列的所有元素
視圖操作.view().reshape()改變張量的形狀,但不改變其數(shù)據(jù)x_reshaped = x.view(4)x_reshaped = x.reshape(4) 將2x2張量變?yōu)?x4張量
數(shù)學(xué)運(yùn)算支持加法、減法、乘法、除法、冪運(yùn)算等y = x + 2;z = x.pow(2)
統(tǒng)計(jì)函數(shù)如求和(.sum())、均值(.mean())、最大值(.max())等sum_val = x.sum();mean_val = x.mean()
類(lèi)型轉(zhuǎn)換轉(zhuǎn)換為其他數(shù)據(jù)類(lèi)型或設(shè)備上的張量x_float64 = x.to(dtype=torch.float64);x_cpu = x.to('cpu')

到此這篇關(guān)于PyTorch使用教程之Tensor包詳解的文章就介紹到這了,更多相關(guān)PyTorch Tensor包內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • 深入了解如何基于Python讀寫(xiě)Kafka

    深入了解如何基于Python讀寫(xiě)Kafka

    這篇文章主要介紹了深入了解如何基于Python讀寫(xiě)Kafka,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-12-12
  • Python讀取及保存mat文件的注意事項(xiàng)說(shuō)明

    Python讀取及保存mat文件的注意事項(xiàng)說(shuō)明

    這篇文章主要介紹了Python讀取及保存mat文件的注意事項(xiàng)說(shuō)明,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2022-12-12
  • Pytest mark使用實(shí)例及原理解析

    Pytest mark使用實(shí)例及原理解析

    這篇文章主要介紹了Pytest mark使用實(shí)例及原理解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-02-02
  • python?dataframe獲得指定行列實(shí)戰(zhàn)代碼

    python?dataframe獲得指定行列實(shí)戰(zhàn)代碼

    對(duì)于一個(gè)DataFrame,常常需要篩選出某列為指定值的行,下面這篇文章主要給大家介紹了關(guān)于python?dataframe獲得指定行列的相關(guān)資料,文中通過(guò)代碼介紹的非常詳細(xì),需要的朋友可以參考下
    2023-12-12
  • 對(duì)pycharm 修改程序運(yùn)行所需內(nèi)存詳解

    對(duì)pycharm 修改程序運(yùn)行所需內(nèi)存詳解

    今天小編就為大家分享一篇對(duì)pycharm 修改程序運(yùn)行所需內(nèi)存詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2018-12-12
  • python 開(kāi)心網(wǎng)和豆瓣日記爬取的小爬蟲(chóng)

    python 開(kāi)心網(wǎng)和豆瓣日記爬取的小爬蟲(chóng)

    我本科有個(gè)很幽默風(fēng)趣的量子力學(xué)老師,他說(shuō)了很多批話,跟個(gè)公知似的。他的很多文章都放在了開(kāi)心網(wǎng)(kaixin001.com)上,為了留個(gè)紀(jì)念,用爬蟲(chóng)保存下來(lái)
    2021-05-05
  • python基于concurrent模塊實(shí)現(xiàn)多線程

    python基于concurrent模塊實(shí)現(xiàn)多線程

    這篇文章主要介紹了python基于concurrent模塊實(shí)現(xiàn)多線程,幫助大家更好的理解和學(xué)習(xí)使用python,感興趣的朋友可以了解下
    2021-04-04
  • python 實(shí)現(xiàn)非極大值抑制算法(Non-maximum suppression, NMS)

    python 實(shí)現(xiàn)非極大值抑制算法(Non-maximum suppression, NMS)

    這篇文章主要介紹了python 如何實(shí)現(xiàn)非極大值抑制算法(Non-maximum suppression, NMS),幫助大家更好的進(jìn)行機(jī)器學(xué)習(xí),感興趣的朋友可以了解下
    2020-10-10
  • python with提前退出遇到的坑與解決方案

    python with提前退出遇到的坑與解決方案

    這篇文章主要介紹了python with提前退出遇到的坑與解決方法,需要的朋友參考下吧
    2018-01-01
  • Python圖像分割之均勻性度量法分析

    Python圖像分割之均勻性度量法分析

    均勻性度量圖像分割是圖像像素分割的一種方法,當(dāng)然還有其他很多的方法。本文將主要介紹下其原理和實(shí)現(xiàn)代碼,感興趣的小伙伴可以學(xué)習(xí)一下
    2021-12-12

最新評(píng)論