pytorch MSELoss計(jì)算平均的實(shí)現(xiàn)方法
給定損失函數(shù)的輸入y,pred,shape均為bxc。
若設(shè)定loss_fn = torch.nn.MSELoss(reduction='mean'),最終的輸出值其實(shí)是(y - pred)每個(gè)元素?cái)?shù)字的平方之和除以(bxc),也就是在batch和特征維度上都取了平均。
如果只想在batch上做平均,可以這樣寫(xiě):
loss_fn = torch.nn.MSELoss(reduction='sum') loss = loss_fn(pred, y) / pred.size(0)
補(bǔ)充:PyTorch中MSELoss的使用
參數(shù)
torch.nn.MSELoss(size_average=None, reduce=None, reduction: str = 'mean')
size_average和reduce在當(dāng)前版本的pytorch已經(jīng)不建議使用了,只設(shè)置reduction就行了。
reduction的可選參數(shù)有:'none' 、'mean' 、'sum'
reduction='none'
:求所有對(duì)應(yīng)位置的差的平方,返回的仍然是一個(gè)和原來(lái)形狀一樣的矩陣。
reduction='mean'
:求所有對(duì)應(yīng)位置差的平方的均值,返回的是一個(gè)標(biāo)量。
reduction='sum'
:求所有對(duì)應(yīng)位置差的平方的和,返回的是一個(gè)標(biāo)量。
更多可查看官方文檔
舉例
首先假設(shè)有三個(gè)數(shù)據(jù)樣本分別經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)運(yùn)算,得到三個(gè)輸出與其標(biāo)簽分別是:
y_pre = torch.Tensor([[1, 2, 3], [2, 1, 3], [3, 1, 2]]) y_label = torch.Tensor([[1, 0, 0], [0, 1, 0], [0, 0, 1]])
如果reduction='none':
criterion1 = nn.MSELoss(reduction='none') loss1 = criterion1(x, y) print(loss1)
則輸出:
tensor([[0., 4., 9.],
[4., 0., 9.],
[9., 1., 1.]])
如果reduction='mean':
criterion2 = nn.MSELoss(reduction='mean') loss2 = criterion2(x, y) print(loss2)
則輸出:
tensor(4.1111)
如果reduction='sum':
criterion3 = nn.MSELoss(reduction='sum') loss3 = criterion3(x, y) print(loss3)
則輸出:
tensor(37.)
在反向傳播時(shí)的使用
一般在反向傳播時(shí),都是先求loss,再使用loss.backward()求loss對(duì)每個(gè)參數(shù) w_ij和b的偏導(dǎo)數(shù)(也可以理解為梯度)。
這里要注意的是,只有標(biāo)量才能執(zhí)行backward()函數(shù),因此在反向傳播中reduction不能設(shè)為'none'。
但具體設(shè)置為'sum'還是'mean'都是可以的。
若設(shè)置為'sum',則有Loss=loss_1+loss_2+loss_3,表示總的Loss由每個(gè)實(shí)例的loss_i構(gòu)成,在通過(guò)Loss求梯度時(shí),將每個(gè)loss_i的梯度也都考慮進(jìn)去了。
若設(shè)置為'mean',則相比'sum'相當(dāng)于Loss變成了Loss*(1/i),這在參數(shù)更新時(shí)影響不大,因?yàn)橛袑W(xué)習(xí)率a的存在。
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教。
相關(guān)文章
Python selenium文件上傳下載功能代碼實(shí)例
這篇文章主要介紹了Python selenium文件上傳下載功能代碼實(shí)例,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-04-04python實(shí)現(xiàn)對(duì)象列表根據(jù)某個(gè)屬性排序的方法詳解
這篇文章主要介紹了python實(shí)現(xiàn)對(duì)象列表根據(jù)某個(gè)屬性排序的方法,結(jié)合具體實(shí)例形式詳細(xì)分析了Python對(duì)象列表遍歷、排序的兩種常見(jiàn)操作技巧,需要的朋友可以參考下2019-06-06python實(shí)現(xiàn)音樂(lè)下載的統(tǒng)計(jì)
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)音樂(lè)下載的統(tǒng)計(jì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-06-06Python爬蟲(chóng)之網(wǎng)頁(yè)圖片抓取的方法
最近小編一直在學(xué)習(xí)python的東西,今天小編給大家分享基于python寫(xiě)的一個(gè)爬蟲(chóng)程序,能實(shí)現(xiàn)簡(jiǎn)單的網(wǎng)頁(yè)圖片下載,具體實(shí)例代碼大家參考下本文2018-07-07Pandas 稀疏數(shù)據(jù)結(jié)構(gòu)的實(shí)現(xiàn)
如果數(shù)據(jù)中有很多NaN的值,存儲(chǔ)起來(lái)就會(huì)浪費(fèi)空間。為了解決這個(gè)問(wèn)題,Pandas引入了一種叫做Sparse data的結(jié)構(gòu),來(lái)有效的存儲(chǔ)這些NaN的值,本文就來(lái)詳細(xì)的介紹了一下,感興趣的可以了解一下2021-07-07使用Pytorch導(dǎo)出自定義ONNX算子的示例代碼
這篇文章主要介紹了使用Pytorch導(dǎo)出自定義ONNX算子的示例代碼,下面給出個(gè)具體應(yīng)用中的示例:需要導(dǎo)出pytorch的affine_grid算子,但在pytorch的2.0.1版本中又無(wú)法正常導(dǎo)出該算子,故可通過(guò)如下自定義算子代碼導(dǎo)出,需要的朋友可以參考下2024-03-03