Pytorch之Variable的用法
1.簡介
torch.autograd.Variable是Autograd的核心類,它封裝了Tensor,并整合了反向傳播的相關實現(xiàn)
Variable和tensor的區(qū)別和聯(lián)系
Variable是籃子,而tensor是雞蛋,雞蛋應該放在籃子里才能方便拿走(定義variable時一個參數(shù)就是tensor)
Variable這個籃子里除了裝了tensor外還有requires_grad參數(shù),表示是否需要對其求導,默認為False
Variable這個籃子呢,自身有一些屬性
比如grad,梯度variable.grad是d(y)/d(variable)保存的是變量y對variable變量的梯度值,如果requires_grad參數(shù)為False,所以variable.grad返回值為None,如果為True,返回值就為對variable的梯度值
比如grad_fn,對于用戶自己創(chuàng)建的變量(Variable())grad_fn是為none的,也就是不能調用backward函數(shù),但對于由計算生成的變量,如果存在一個生成中間變量的requires_grad為true,那其的grad_fn不為none,反則為none
比如data,這個就很簡單,這個屬性就是裝的雞蛋(tensor)
Varibale包含三個屬性:
data:存儲了Tensor,是本體的數(shù)據(jù) grad:保存了data的梯度,本事是個Variable而非Tensor,與data形狀一致 grad_fn:指向Function對象,用于反向傳播的梯度計算之用
代碼1
import numpy as np import torch from torch.autograd import Variable x = Variable(torch.ones(2,2),requires_grad = False) temp = Variable(torch.zeros(2,2),requires_grad = True) y = x + temp + 2 y = y.mean() #求平均數(shù) y.backward() #反向傳遞函數(shù),用于求y對前面的變量(x)的梯度 print(x.grad) # d(y)/d(x)
輸出1
none
(因為requires_grad=False)
代碼2
import numpy as np import torch from torch.autograd import Variable x = Variable(torch.ones(2,2),requires_grad = False) temp = Variable(torch.zeros(2,2),requires_grad = True) y = x + temp + 2 y = y.mean() #求平均數(shù) y.backward() #反向傳遞函數(shù),用于求y對前面的變量(x)的梯度 print(temp.grad) # d(y)/d(temp)
輸出2
tensor([[0.2500, 0.2500],
[0.2500, 0.2500]])
代碼3
import numpy as np import torch from torch.autograd import Variable x = Variable(torch.ones(2,2),requires_grad = False) temp = Variable(torch.zeros(2,2),requires_grad = True) y = x + 2 y = y.mean() #求平均數(shù) y.backward() #反向傳遞函數(shù),用于求y對前面的變量(x)的梯度 print(x.grad) # d(y)/d(x)
輸出3
Traceback (most recent call last):
File "path", line 12, in <module>
y.backward()
(報錯了,因為生成變量y的中間變量只有x,而x的requires_grad是False,所以y的grad_fn是none)
代碼4
import numpy as np import torch from torch.autograd import Variable x = Variable(torch.ones(2,2),requires_grad = False) temp = Variable(torch.zeros(2,2),requires_grad = True) y = x + 2 y = y.mean() #求平均數(shù) #y.backward() #反向傳遞函數(shù),用于求y對前面的變量(x)的梯度 print(y.grad_fn) # d(y)/d(x)
輸出4
none
2.grad屬性
在每次backward后,grad值是會累加的,所以利用BP算法,每次迭代是需要將grad清零的。
x.grad.data.zero_()
(in-place操作需要加上_,即zero_)
以上這篇Pytorch之Variable的用法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
通過python實現(xiàn)windows桌面截圖代碼實例
這篇文章主要介紹了python實現(xiàn)windows桌面截圖代碼實例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-01-01python opencv minAreaRect 生成最小外接矩形的方法
這篇文章主要介紹了python opencv minAreaRect 生成最小外接矩形的方法,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2019-07-07Python使用Keras庫中的LSTM模型生成新文本內容教程
Python語言使用金庸小說文本庫,對文本進行預處理,然后使用Keras庫中的LSTM模型創(chuàng)建和訓練了模型,根據(jù)這個模型,我們可以生成新的文本,并探索小說的不同應用2024-01-01使用Python合并PDF文件并添加自定義目錄及頁腳的全過程
在處理文檔時,我們經(jīng)常遇到需要合并多個PDF文件并添加目錄及頁腳的情況,本文將介紹如何使用Python,特別是PyPDF2和reportlab庫來實現(xiàn)這一功能我們將通過一個實用的示例來演示整個過程,需要的朋友可以參考下2024-03-03