PyTorch筆記之scatter()函數(shù)的使用
scatter() 和 scatter_() 的作用是一樣的,只不過(guò) scatter() 不會(huì)直接修改原來(lái)的 Tensor,而 scatter_() 會(huì)
PyTorch 中,一般函數(shù)加下劃線代表直接在原來(lái)的 Tensor 上修改
scatter(dim, index, src) 的參數(shù)有 3 個(gè)
- dim:沿著哪個(gè)維度進(jìn)行索引
- index:用來(lái) scatter 的元素索引
- src:用來(lái) scatter 的源元素,可以是一個(gè)標(biāo)量或一個(gè)張量
這個(gè) scatter可以理解成放置元素或者修改元素
簡(jiǎn)單說(shuō)就是通過(guò)一個(gè)張量 src 來(lái)修改另一個(gè)張量,哪個(gè)元素需要修改、用 src 中的哪個(gè)元素來(lái)修改由 dim 和 index 決定
官方文檔給出了 3維張量 的具體操作說(shuō)明,如下所示
self[index[i][j][k]][j][k] = src[i][j][k] # if dim == 0 self[i][index[i][j][k]][k] = src[i][j][k] # if dim == 1 self[i][j][index[i][j][k]] = src[i][j][k] # if dim == 2
exmaple:
x = torch.rand(2, 5) #tensor([[0.1940, 0.3340, 0.8184, 0.4269, 0.5945], # [0.2078, 0.5978, 0.0074, 0.0943, 0.0266]]) torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), x) #tensor([[0.1940, 0.5978, 0.0074, 0.4269, 0.5945], # [0.0000, 0.3340, 0.0000, 0.0943, 0.0000], # [0.2078, 0.0000, 0.8184, 0.0000, 0.0266]])
具體地說(shuō),我們的 index 是torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]),一個(gè)二維張量,下面用圖簡(jiǎn)單說(shuō)明
我們是 2維 張量,一開始進(jìn)行 $self[index[0][0]][0]$,其中 $index[0][0]$ 的值是0,所以執(zhí)行 $self[0][0] = x[0][0] = 0.1940$
$self[index[i][j]][j] = src[i][j] $
再比如$self[index[1][0]][0]$,其中 $index[1][0]$ 的值是2,所以執(zhí)行 $self[2][0] = x[1][0] = 0.2078$
src 除了可以是張量外,也可以是一個(gè)標(biāo)量
example:
torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), 7) #tensor([[7., 7., 7., 7., 7.], # [0., 7., 0., 7., 0.], # [7., 0., 7., 0., 7.]]
scatter()一般可以用來(lái)對(duì)標(biāo)簽進(jìn)行 one-hot 編碼,這就是一個(gè)典型的用標(biāo)量來(lái)修改張量的一個(gè)例子
example:
class_num = 10 batch_size = 4 label = torch.LongTensor(batch_size, 1).random_() % class_num #tensor([[6], # [0], # [3], # [2]]) torch.zeros(batch_size, class_num).scatter_(1, label, 1) #tensor([[0., 0., 0., 0., 0., 0., 1., 0., 0., 0.], # [1., 0., 0., 0., 0., 0., 0., 0., 0., 0.], # [0., 0., 0., 1., 0., 0., 0., 0., 0., 0.], # [0., 0., 1., 0., 0., 0., 0., 0., 0., 0.]])
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Python可變參數(shù)會(huì)自動(dòng)填充前面的默認(rèn)同名參數(shù)實(shí)例
今天小編就為大家分享一篇Python可變參數(shù)會(huì)自動(dòng)填充前面的默認(rèn)同名參數(shù)實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-11-11解決pytorch下出現(xiàn)multi-target not supported at的一種可能原因
這篇文章主要介紹了解決pytorch下出現(xiàn)multi-target not supported at的一種可能原因,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-02-02python實(shí)現(xiàn)飛機(jī)大戰(zhàn)
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)飛機(jī)大戰(zhàn)游戲,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-09-09python 實(shí)現(xiàn)字符串下標(biāo)的輸出功能
這篇文章主要介紹了python 簡(jiǎn)單的實(shí)現(xiàn)字符串下標(biāo)的輸出,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-02-02Python機(jī)器學(xué)習(xí)NLP自然語(yǔ)言處理基本操作之命名實(shí)例提取
自然語(yǔ)言處理(?Natural?Language?Processing,?NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域與人工智能領(lǐng)域中的一個(gè)重要方向。它研究能實(shí)現(xiàn)人與計(jì)算機(jī)之間用自然語(yǔ)言進(jìn)行有效通信的各種理論和方法2021-11-11python讀取.mat文件及將變量存為.mat文件的詳細(xì)介紹
這篇文章主要給大家介紹了關(guān)于python讀取.mat文件及將變量存為.mat文件的詳細(xì)介紹,?mat文件是matlab的數(shù)據(jù)存儲(chǔ)的標(biāo)準(zhǔn)格式,文中通過(guò)代碼介紹的非常詳細(xì),需要的朋友可以參考下2024-06-06