原文:pytorch中的nn.CrossEntropyLoss()

nn.CrossEntropyLoss 這個損失函數和我們普通說的交叉熵還是有些區別。 x 是模型生成的結果, class 是數據對應的label loss x,class log frac exp x class sum j exp x j x class log sum j exp x j nn.CrossEntropyLoss 的使用方式參見如下代碼 ...

2019-12-11 16:13 0 3235 推薦指數:

查看詳情

nn.CrossEntropyLoss

nn.CrossEntropyLoss pytorch交叉熵計算方式為: \[H(p,q) = -\sum p(i)logq(i) \] 其中,p為真實值矩陣,q為預測值矩陣 當P使用one-hot embedding時,只有在分類正確時 nn.CrossEntropyLoss ...

Sun Mar 06 00:28:00 CST 2022 0 916
Pytorch學習筆記12----損失函數nn.CrossEntropyLoss()、nn.NLLLoss()

1.CrossEntropyLoss()損失函數 交叉熵主要是用來判定實際的輸出與期望的輸出的接近程度,為什么這么說呢,舉個例子:在做分類的訓練的時候,如果一個樣本屬於第K類,那么這個類別所對應的的輸出節點的輸出值應該為1,而其他節點的輸出都為0,即[0,0,1,0,….0,0],這個數組也就 ...

Tue Aug 04 02:20:00 CST 2020 0 847
torch.nn.CrossEntropyLoss

class torch.nn.CrossEntropyLoss(weight=None, size_average=True, ignore_index=-100, reduce=True) 我這里沒有詳細解讀這個損失函數的各個參數,僅記錄一下在sru涉及到的。 sru中代 ...

Thu Dec 07 19:03:00 CST 2017 0 17609
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM