PyTorch中Torch.arange函數(shù)詳解
torch.arange函數(shù)詳解
官方文檔:torch.arange
函數(shù)原型
arange(start=0, end, step=1, *, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False) -> Tensor
用法
返回大小為的一維張量,其值介于區(qū)間
為步長等間隔取值
參數(shù)說明
參數(shù) | 類型 | 說明 |
---|---|---|
start | Number | 起始值,默認(rèn)值:0 |
end | Number | 結(jié)束值 |
step | Number | 步長,默認(rèn)值:1 |
關(guān)鍵字參數(shù)
關(guān)鍵字參數(shù) | 類型 | 說明 |
---|---|---|
out | Tensor | 輸出張量 |
dtype | torch.dtype | 期望的返回張量的數(shù)據(jù)類型。默認(rèn)值:如果是None ,則使用全局默認(rèn)值。如果未給出 dtype,則從其他輸入?yún)?shù)推斷數(shù)據(jù)類型。如果 start、end 或 stop 中的任何一個(gè)是浮點(diǎn)數(shù),則 dtype 被推斷為默認(rèn)值,參見 get_default_dtype()。否則,dtype 被推斷為 torch.int64 |
layout | torch.layout | 返回張量的期望 layout。默認(rèn)值:torch.strided |
device | torch.device | 返回張量的期望設(shè)備。默認(rèn)值:如果是None ,則使用當(dāng)前設(shè)備作為默認(rèn)張量類型,參見torch.set_default_tensor_type()。對(duì)于 CPU 類型的張量,則 device 是 CPU ,若是 CUDA 類型的張量,則 device 是當(dāng)前的 CUDA 設(shè)備 |
requires_grad | bool | autograd 是否記錄返回張量上所作的操作。默認(rèn)值:False |
代碼示例
>>> torch.arange(5) # 默認(rèn)以 0 為起點(diǎn) tensor([ 0, 1, 2, 3, 4]) >>> torch.arange(1, 4) # 默認(rèn)間隔為 1 tensor([ 1, 2, 3]) >>> torch.arange(1, 2.5, 0.5) # 指定間隔 0.5 tensor([ 1.0000, 1.5000, 2.0000])
pyTorch中torch.range()和torch.arange()的區(qū)別
torch.range()和torch.arange()的區(qū)別
x = torch.range(-8, 8) y = torch.arange(-8, 8) print(x, x.dtype) print(y, y.dtype)
output:
tensor([-8., -7., -6., -5., -4., -3., -2., -1., 0., 1., 2., 3., 4., 5.,6., 7., 8.]) torch.float32
tensor([-8, -7, -6, -5, -4, -3, -2, -1, 0, 1, 2, 3, 4, 5, 6, 7]) torch.int64
可以看到,torch.range()的范圍是[-8, 8],類型為torch.float32
torch.arange()的范圍是[-8, 8),類型為torch.int64
在梯度設(shè)置時(shí)會(huì)出現(xiàn)錯(cuò)誤:
x = torch.range(-8, 8, 1, requires_grad=True) y = torch.arange(-8, 8, 1, requires_grad=True) print(x, x.dtype) print(y, y.dtype)
即只有當(dāng)類型為float時(shí)才可設(shè)置requires_grad=True,故可將
y = torch.arange(-8, 8, 1, requires_grad=True)
改為以下,即手動(dòng)改變數(shù)據(jù)類型即可。
y = torch.arange(-8.0, 8.0, 1.0, requires_grad=True)
output:
tensor([-8., -7., -6., -5., -4., -3., -2., -1., 0., 1., 2., 3., 4., 5.,6., 7., 8.], requires_grad=True)
torch.float32
tensor([-8., -7., -6., -5., -4., -3., -2., -1., 0., 1., 2., 3., 4., 5.,6., 7.], requires_grad=True)
torch.float32
總結(jié)
到此這篇關(guān)于PyTorch中Torch.arange函數(shù)的文章就介紹到這了,更多相關(guān)PyTorch Torch.arange函數(shù)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
報(bào)錯(cuò)No?module?named?numpy問題的解決辦法
之前安裝了Python,后來因?yàn)榫毩?xí)使用Python寫科學(xué)計(jì)算的東西,又安裝了Anaconda,但是安裝Anaconda之后又出現(xiàn)了一個(gè)問題,下面這篇文章主要給大家介紹了關(guān)于報(bào)錯(cuò)No?module?named?numpy問題的解決辦法,需要的朋友可以參考下2022-08-08python學(xué)生信息管理系統(tǒng)實(shí)現(xiàn)代碼
這篇文章主要為大家詳細(xì)介紹了python學(xué)生信息管理系統(tǒng)的實(shí)現(xiàn)代碼,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2021-06-06Python中的sys.stdout.write實(shí)現(xiàn)打印刷新功能
今天小編就為大家分享一篇Python中的sys.stdout.write實(shí)現(xiàn)打印刷新功能,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2020-02-02基于Python實(shí)現(xiàn)視頻自動(dòng)下載軟件
這篇文章主要為大家詳細(xì)介紹了如何利用Python實(shí)現(xiàn)一個(gè)自動(dòng)下載視頻、彈幕、評(píng)論的軟件,文中的示例代碼講解詳細(xì),需要的小伙伴可以參考一下2022-08-08