淺談對(duì)pytroch中torch.autograd.backward的思考
反向傳遞法則是深度學(xué)習(xí)中最為重要的一部分,torch中的backward可以對(duì)計(jì)算圖中的梯度進(jìn)行計(jì)算和累積
這里通過(guò)一段程序來(lái)演示基本的backward操作以及需要注意的地方
>>> import torch >>> from torch.autograd import Variable >>> x = Variable(torch.ones(2,2), requires_grad=True) >>> y = x + 2 >>> y.grad_fn Out[6]: <torch.autograd.function.AddConstantBackward at 0x229e7068138> >>> y.grad >>> z = y*y*3 >>> z.grad_fn Out[9]: <torch.autograd.function.MulConstantBackward at 0x229e86cc5e8> >>> z Out[10]: Variable containing: 27 27 27 27 [torch.FloatTensor of size 2x2] >>> out = z.mean() >>> out.grad_fn Out[12]: <torch.autograd.function.MeanBackward at 0x229e86cc408> >>> out.backward() # 這里因?yàn)閛ut為scalar標(biāo)量,所以參數(shù)不需要填寫(xiě) >>> x.grad Out[19]: Variable containing: 4.5000 4.5000 4.5000 4.5000 [torch.FloatTensor of size 2x2] >>> out # out為標(biāo)量 Out[20]: Variable containing: 27 [torch.FloatTensor of size 1] >>> x = Variable(torch.Tensor([2,2,2]), requires_grad=True) >>> y = x*2 >>> y Out[52]: Variable containing: 4 4 4 [torch.FloatTensor of size 3] >>> y.backward() # 因?yàn)閥輸出為非標(biāo)量,求向量間元素的梯度需要對(duì)所求的元素進(jìn)行標(biāo)注,用相同長(zhǎng)度的序列進(jìn)行標(biāo)注 Traceback (most recent call last): File "C:\Users\dell\Anaconda3\envs\my-pytorch\lib\site-packages\IPython\core\interactiveshell.py", line 2862, in run_code exec(code_obj, self.user_global_ns, self.user_ns) File "<ipython-input-53-95acac9c3254>", line 1, in <module> y.backward() File "C:\Users\dell\Anaconda3\envs\my-pytorch\lib\site-packages\torch\autograd\variable.py", line 156, in backward torch.autograd.backward(self, gradient, retain_graph, create_graph, retain_variables) File "C:\Users\dell\Anaconda3\envs\my-pytorch\lib\site-packages\torch\autograd\__init__.py", line 86, in backward grad_variables, create_graph = _make_grads(variables, grad_variables, create_graph) File "C:\Users\dell\Anaconda3\envs\my-pytorch\lib\site-packages\torch\autograd\__init__.py", line 34, in _make_grads raise RuntimeError("grad can be implicitly created only for scalar outputs") RuntimeError: grad can be implicitly created only for scalar outputs >>> y.backward(torch.FloatTensor([0.1, 1, 10])) >>> x.grad #注意這里的0.1,1.10為梯度求值比例 Out[55]: Variable containing: 0.2000 2.0000 20.0000 [torch.FloatTensor of size 3] >>> y.backward(torch.FloatTensor([0.1, 1, 10])) >>> x.grad # 梯度累積 Out[57]: Variable containing: 0.4000 4.0000 40.0000 [torch.FloatTensor of size 3] >>> x.grad.data.zero_() # 梯度累積進(jìn)行清零 Out[60]: 0 0 0 [torch.FloatTensor of size 3] >>> x.grad # 累積為空 Out[61]: Variable containing: 0 0 0 [torch.FloatTensor of size 3] >>> y.backward(torch.FloatTensor([0.1, 1, 10])) >>> x.grad Out[63]: Variable containing: 0.2000 2.0000 20.0000 [torch.FloatTensor of size 3]
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
python可視化分析的實(shí)現(xiàn)(matplotlib、seaborn、ggplot2)
這篇文章主要介紹了python可視化分析的實(shí)現(xiàn)(matplotlib、seaborn、ggplot2),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2021-02-02python將寫(xiě)好的程序打包成exe可執(zhí)行文件
這篇文章主要介紹了python寫(xiě)好的程序打包成exe可執(zhí)行文件,文章圍繞主題展開(kāi)詳細(xì)的內(nèi)容介紹,具有一定的參考價(jià)值,需要的小伙伴可以參考一下2022-08-08python包裝和授權(quán)學(xué)習(xí)教程
包裝是指對(duì)一個(gè)已經(jīng)存在的對(duì)象進(jìn)行系定義加工,實(shí)現(xiàn)授權(quán)是包裝的一個(gè)特性,下面這篇文章主要給大家介紹了關(guān)于python包裝和授權(quán)的相關(guān)資料,文中通過(guò)實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2023-06-06Python中利用Scipy包的SIFT方法進(jìn)行圖片識(shí)別的實(shí)例教程
SIFT算法可以檢測(cè)圖片中的局部特征,算法原理相當(dāng)復(fù)雜...但是!Python強(qiáng)大的第三方包Scipy中帶有實(shí)現(xiàn)SIFT算法的SIFT方法,我們只要拿來(lái)用就可以了,下面就為大家?guī)?lái)Python中利用Scipy包的SIFT方法進(jìn)行圖片識(shí)別的實(shí)例教程.2016-06-06Python中__repr__和__str__區(qū)別詳解
這篇文章主要介紹了Python中__repr__和__str__區(qū)別詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-11-11使用python批量轉(zhuǎn)換文件編碼為UTF-8的實(shí)現(xiàn)
這篇文章主要介紹了使用python批量轉(zhuǎn)換文件編碼為UTF-8的實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-04-04Python自然語(yǔ)言處理之詞干,詞形與最大匹配算法代碼詳解
這篇文章主要介紹了Python自然語(yǔ)言處理之詞干,詞形與MaxMatch算法代碼詳解,涉及詞干提取,詞形還原,簡(jiǎn)單總結(jié)了二者的區(qū)別和聯(lián)系,最后還分享了最大匹配算法的相關(guān)示例,具有一定參考價(jià)值,需要的朋友可以了解下。2017-11-11Python if語(yǔ)句知識(shí)點(diǎn)用法總結(jié)
本篇文章給python初學(xué)者總結(jié)了關(guān)于Python之if語(yǔ)句的相關(guān)用法以及知識(shí)點(diǎn)總結(jié),跟著學(xué)習(xí)下吧。2018-06-06Python Json模塊中dumps、loads、dump、load函數(shù)介紹
本篇文章主要介紹了Python Json模塊中dumps、loads、dump、load函數(shù)介紹,詳細(xì)的介紹了這幾種函數(shù)的用法,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-05-05