PyTorch中Tensor的拼接與拆分的實(shí)現(xiàn)
拼接張量:torch.cat() 、torch.stack()
- torch.cat(inputs, dimension=0) → Tensor
在給定維度上對輸入的張量序列 seq 進(jìn)行連接操作
舉個例子:
>>> import torch >>> x = torch.randn(2, 3) >>> x tensor([[-0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764]]) >>> torch.cat((x, x, x), 0) # 在 0 維(縱向)進(jìn)行拼接 tensor([[-0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764], [-0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764], [-0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764]]) >>> torch.cat((x, x, x), 1) # 在 1 維(橫向)進(jìn)行拼接 tensor([[-0.1997, -0.6900, 0.7039, -0.1997, -0.6900, 0.7039, -0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764, 0.0268, -1.0140, -2.9764, 0.0268, -1.0140, -2.9764]]) >>> y1 = torch.randn(5, 3, 6) >>> y2 = torch.randn(5, 3, 6) >>> torch.cat([y1, y2], 2).size() torch.Size([5, 3, 12]) >>> torch.cat([y1, y2], 1).size() torch.Size([5, 6, 6])
對于需要拼接的張量,維度數(shù)量必須相同,進(jìn)行拼接的維度的尺寸可以不同,但是其它維度的尺寸必須相同。
- torch.stack(sequence, dim=0)
沿著一個新維度對輸入張量序列進(jìn)行連接。 序列中所有的張量都應(yīng)該為相同形狀
舉個例子:
>>> x1 = torch.randn(2, 3) >>> x2 = torch.randn(2, 3) >>> torch.stack((x1, x2), 0).size() # 在 0 維插入一個維度,進(jìn)行區(qū)分拼接 torch.Size([2, 2, 3]) >>> torch.stack((x1, x2), 1).size() # 在 1 維插入一個維度,進(jìn)行組合拼接 torch.Size([2, 2, 3]) >>> torch.stack((x1, x2), 2).size() torch.Size([2, 3, 2]) >>> torch.stack((x1, x2), 0) tensor([[[-0.3499, -0.6124, 1.4332], [ 0.1516, -1.5439, -0.1758]], [[-0.4678, -1.1430, -0.5279], [-0.4917, -0.6504, 2.2512]]]) >>> torch.stack((x1, x2), 1) tensor([[[-0.3499, -0.6124, 1.4332], [-0.4678, -1.1430, -0.5279]], [[ 0.1516, -1.5439, -0.1758], [-0.4917, -0.6504, 2.2512]]]) >>> torch.stack((x1, x2), 2) tensor([[[-0.3499, -0.4678], [-0.6124, -1.1430], [ 1.4332, -0.5279]], [[ 0.1516, -0.4917], [-1.5439, -0.6504], [-0.1758, 2.2512]]])
把相同形狀的張量合并,并根據(jù)提供的維度序列在相應(yīng)位置插入維度,方法會根據(jù)位置來排列數(shù)據(jù)。代碼中,根據(jù)第 0 維和第 1 維來進(jìn)行合并時,雖然合并后的張量維度和尺寸相等,但是數(shù)據(jù)的位置并不是相同的。
拆分張量:torch.split()、torch.chunk()
- torch.split(tensor, split_size, dim=0)
將輸入張量分割成相等形狀的 chunks(如果可分)。 如果沿指定維的張量形狀大小不能被 split_size 整分, 則最后一個分塊會小于其它分塊。
舉個例子:
>>> x = torch.randn(3, 10, 6) >>> a, b, c = x.split(1, 0) # 在 0 維進(jìn)行間隔維 1 的拆分 >>> a.size(), b.size(), c.size() (torch.Size([1, 10, 6]), torch.Size([1, 10, 6]), torch.Size([1, 10, 6])) >>> d, e = x.split(2, 0) # 在 0 維進(jìn)行間隔維 2 的拆分 >>> d.size(), e.size() (torch.Size([2, 10, 6]), torch.Size([1, 10, 6]))
把張量在 0 維度上以間隔 1 來拆分時,其中 x 在 0 維度上的尺寸為 3,就可以分成 3 份。
把張量在 0 維度上以間隔 2 來拆分時,只能分成 2 份,且只能把前面部分先以間隔 2 來拆分,后面不足 2 的部分就直接作為一個分塊。
- torch.chunk(tensor, chunks, dim=0)
在給定維度(軸)上將輸入張量進(jìn)行分塊兒
直接用上面的數(shù)據(jù)來舉個例子:
>>> l, m, n = x.chunk(3, 0) # 在 0 維上拆分成 3 份 >>> l.size(), m.size(), n.size() (torch.Size([1, 10, 6]), torch.Size([1, 10, 6]), torch.Size([1, 10, 6])) >>> u, v = x.chunk(2, 0) # 在 0 維上拆分成 2 份 >>> u.size(), v.size() (torch.Size([2, 10, 6]), torch.Size([1, 10, 6]))
把張量在 0 維度上拆分成 3 部分時,因?yàn)槌叽缯脼?3,所以每個分塊的間隔相等,都為 1。
把張量在 0 維度上拆分成 2 部分時,無法平均分配,以上面的結(jié)果來看,可以看成是,用 0 維度的尺寸除以需要拆分的份數(shù),把余數(shù)作為最后一個分塊的間隔大小,再把前面的分塊以相同的間隔拆分。
在某一維度上拆分的份數(shù)不能比這一維度的尺寸大
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Python實(shí)現(xiàn)實(shí)時顯示進(jìn)度條的六種方法
這篇文章主要為大家介紹了Python實(shí)現(xiàn)實(shí)時顯示進(jìn)度條,具有一定的參考價值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來幫助<BR>2021-12-12使用python socket分發(fā)大文件的實(shí)現(xiàn)方法
今天小編就為大家分享一篇使用python socket分發(fā)大文件的實(shí)現(xiàn)方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-07-07python判斷變量是否為int、字符串、列表、元組、字典的方法詳解
這篇文章主要介紹了python判斷變量是否為int、字符串、列表、元組、字典的方法詳解,需要的朋友可以參考下2020-02-02Python實(shí)現(xiàn)為PDF去除水印的示例代碼
這篇文章主要介紹了如何利用Python實(shí)現(xiàn)PDF去除水印功能,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2022-04-04Python機(jī)器學(xué)習(xí)之SVM支持向量機(jī)
這篇文章主要為大家詳細(xì)介紹了Python機(jī)器學(xué)習(xí)之SVM支持向量機(jī),具有一定的參考價值,感興趣的小伙伴們可以參考一下2017-12-12python使用正則表達(dá)式分析網(wǎng)頁中的圖片并進(jìn)行替換的方法
這篇文章主要介紹了python使用正則表達(dá)式分析網(wǎng)頁中的圖片并進(jìn)行替換的方法,涉及Python使用正則表達(dá)式的技巧,具有一定參考借鑒價值,需要的朋友可以參考下2015-03-03