欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Pytorch損失函數(shù)torch.nn.NLLLoss()的使用

 更新時間:2023年02月01日 09:35:27   作者:Jeremy_lf  
這篇文章主要介紹了Pytorch損失函數(shù)torch.nn.NLLLoss()的使用,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

Pytorch損失函數(shù)torch.nn.NLLLoss()

在各種深度學習框架中,我們最常用的損失函數(shù)就是交叉熵(torch.nn.CrossEntropyLoss),熵是用來描述一個系統(tǒng)的混亂程度,通過交叉熵我們就能夠確定預測數(shù)據(jù)與真是數(shù)據(jù)之間的相近程度。

交叉熵越小,表示數(shù)據(jù)越接近真實樣本。

交叉熵計算公式

就是我們預測的概率的對數(shù)與標簽的乘積,當qk->1的時候,它的損失接近零。

nn.NLLLoss

官方文檔中介紹稱:

nn.NLLLoss輸入是一個對數(shù)概率向量和一個目標標簽,它與nn.CrossEntropyLoss的關系可以描述為:softmax(x)+log(x)+nn.NLLLoss====>nn.CrossEntropyLoss

CrossEntropyLoss()=log_softmax() + NLLLoss() 

其中softmax函數(shù)又稱為歸一化指數(shù)函數(shù),它可以把一個多維向量壓縮在(0,1)之間,并且它們的和為1.

計算公式

1 

示例代碼:

import math
z = [1.0, 2.0, 3.0, 4.0, 1.0, 2.0, 3.0]
z_exp = [math.exp(i) for i in z]  
print(z_exp)  # Result: [2.72, 7.39, 20.09, 54.6, 2.72, 7.39, 20.09] 
sum_z_exp = sum(z_exp)  
print(sum_z_exp)  # Result: 114.98 
softmax = [round(i / sum_z_exp, 3) for i in z_exp]
print(softmax)  # Result: [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]

log_softmax

log_softmax是指在softmax函數(shù)的基礎上,再進行一次log運算,此時結果有正有負,log函數(shù)的值域是負無窮到正無窮,當x在0—1之間的時候,log(x)值在負無窮到0之間。

nn.NLLLoss

此時,nn.NLLLoss的結果就是把上面的輸出與Label對應的那個值拿出來,再去掉負號,再求均值。

代碼示例:

import torch
input=torch.randn(3,3)
soft_input = torch.nn.Softmax(dim=0)
soft_input(input)
Out[20]: 
tensor([[0.7284, 0.7364, 0.3343],
        [0.1565, 0.0365, 0.0408],
        [0.1150, 0.2270, 0.6250]])

#對softmax結果取log
torch.log(soft_input(input))
Out[21]: 
tensor([[-0.3168, -0.3059, -1.0958],
        [-1.8546, -3.3093, -3.1995],
        [-2.1625, -1.4827, -0.4701]])

假設標簽是[0,1,2],第一行取第0個元素,第二行取第1個,第三行取第2個,去掉負號,即[0.3168,3.3093,0.4701],求平均值,就可以得到損失值。

(0.3168+3.3093+0.4701)/3
Out[22]: 1.3654000000000002

#驗證一下

loss=torch.nn.NLLLoss()
target=torch.tensor([0,1,2])
loss(input,target)
Out[26]: tensor(0.1365)

nn.CrossEntropyLoss

loss=torch.nn.NLLLoss()
target=torch.tensor([0,1,2])
loss(input,target)
Out[26]: tensor(-0.1399)
loss =torch.nn.CrossEntropyLoss()
input = torch.tensor([[ 1.1879,  1.0780,  0.5312],
        [-0.3499, -1.9253, -1.5725],
        [-0.6578, -0.0987,  1.1570]])
target = torch.tensor([0,1,2])
loss(input,target)
Out[30]: tensor(0.1365)

以上為全部實驗驗證兩個loss函數(shù)之間的關系!?。?

總結

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關文章

  • python+pandas分析nginx日志的實例

    python+pandas分析nginx日志的實例

    下面小編就為大家分享一篇python+pandas分析nginx日志的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-04-04
  • 如何使用Flask-Migrate拓展數(shù)據(jù)庫表結構

    如何使用Flask-Migrate拓展數(shù)據(jù)庫表結構

    這篇文章主要介紹了如何使用Flask-Migrate拓展數(shù)據(jù)庫表結構,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2019-07-07
  • python學習之hook鉤子的原理和使用

    python學習之hook鉤子的原理和使用

    這篇文章主要為大家詳細介紹了python學習之hook鉤子的原理和使用,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-10-10
  • 4款Python 類型檢查工具,你選擇哪個呢?

    4款Python 類型檢查工具,你選擇哪個呢?

    這篇文章主要介紹了4款Python 類型檢查工具的相關資料,幫助是及早檢查,提前發(fā)現(xiàn)類型的錯誤,增強代碼的一致性與可維護性。(還有防止脫發(fā),喵),感興趣的朋友可以了解下
    2020-10-10
  • Python跳出多重循環(huán)的方法示例

    Python跳出多重循環(huán)的方法示例

    這篇文章主要介紹了Python跳出多重循環(huán)的方法示例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2019-07-07
  • Django實現(xiàn)后臺上傳并顯示圖片功能

    Django實現(xiàn)后臺上傳并顯示圖片功能

    這篇文章主要介紹了Django實現(xiàn)后臺上傳并顯示圖片功能,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2020-05-05
  • 解決c++調用python中文亂碼問題

    解決c++調用python中文亂碼問題

    這篇文章主要介紹了c++調用python中文亂碼問題,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-07-07
  • pytorch lstm gru rnn 得到每個state輸出的操作

    pytorch lstm gru rnn 得到每個state輸出的操作

    這篇文章主要介紹了pytorch lstm gru rnn 得到每個state輸出的操作,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2021-05-05
  • Python?IDLE設置清屏快捷鍵的方法詳解

    Python?IDLE設置清屏快捷鍵的方法詳解

    這篇文章主要為大家詳細介紹了Python?IDLE設置清屏快捷鍵的方法,文中的示例代碼講解詳細,具有一定的借鑒價值,感興趣的可以了解一下
    2022-09-09
  • 如何使用Python自動生成報表并以郵件發(fā)送

    如何使用Python自動生成報表并以郵件發(fā)送

    這篇文章主要介紹了如何使用Python自動生成報表并以郵件發(fā)送,幫助大家更好的理解和學習python,感興趣的朋友可以了解下
    2020-10-10

最新評論