1.主要函數及作用

tf.nn.softmax:以e為底,除整體的和。把數值壓縮到【0,1】之間表示概率
log_softmax:對softmax的概率值求log 解決溢出 方便交叉熵【由logsoftmax nllloss】計算
NLLLoss:負對數 最大似然
crossEntropyLoss:log_softmax+nllloss
KLDivLoss:相對熵==交叉熵-熵 計算更復雜
2.交叉熵 相對熵關系

p:真實分布
q: 近似分布
用q來表示p所額外花的
1.主要函數及作用

tf.nn.softmax:以e為底,除整體的和。把數值壓縮到【0,1】之間表示概率
log_softmax:對softmax的概率值求log 解決溢出 方便交叉熵【由logsoftmax nllloss】計算
NLLLoss:負對數 最大似然
crossEntropyLoss:log_softmax+nllloss
KLDivLoss:相對熵==交叉熵-熵 計算更復雜
2.交叉熵 相對熵關系

p:真實分布
q: 近似分布
用q來表示p所額外花的
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。