在pytorch當中,有兩種方式可以實現交叉熵,而我們把softmax概率傳入傳入對數似然損失得到的損失函數叫做“交叉熵損失”
在pytorch當中有兩種方法實現交叉熵損失:
實現方式1:
criterion=nn.CrossEntropyLoss()
loss=criterion(input,target)
實現方式2:
#對輸出值進行計算softmax,並取對數,而這個output是需要在神經網絡模型的輸出return語句當中就要計算好的 output=F.log_softmax(x,dim=-1) #使用pytorch當中的帶權損失 loss=F.nll_loss(output,target)