花费 18 ms
caffe绘制训练过程的loss和accuracy曲线

参考博文:http://blog.csdn.net/u013078356/article/details/51154847 在使用caffe训练数据,迭代次数非常大的时候,难免会想图形化展示实验结果。 ...

Fri Mar 10 18:57:00 CST 2017 5 10217
SigmoidCrossEntropyLoss与SoftmaxWithLoss使用区别

这里不列举两个loss所对应的数学表达式,网络资料很多,可自行google。在此只简单说明一下具体使用区别。 1. SigmoidCrossEntropyLoss结合sigmoid函数,多是应用于二分类或多目标分类。 * 对于二分类,预测输入图像为1的概率,一张图像 ...

Tue Aug 28 10:25:00 CST 2018 0 4476
Softmax 损失-梯度计算

本文介绍Softmax运算、Softmax损失函数及其反向传播梯度计算, 内容上承接前两篇博文 损失函数 & 手推反向传播公式。 Softmax 梯度 设有K类, 那么期望标签y形如\([ ...

Mon Jul 23 00:54:00 CST 2018 0 3771
学习率和loss下降的关系

本文摘自:学习率和batchsize如何影响模型的性能? 初始的学习率一般有一个最优值,过大则导致模型不收敛,过小则导致模型收敛特别慢或者无法学习,下图展示了不同大小的学习率下模型收敛情况的可能性, ...

Wed Jan 13 05:54:00 CST 2021 0 823
unable to get repr for class ‘torch.tensor’

1.调试程序发现计算loss的时候出现如题所示错误,导致后续程序报CUDA的错 nn.CrossEntropyLoss(),我设置ignore_index为0,mask设为0,1,2,做2分类,就会这样 2.将ignore_index改为-1,计算loss的时候把mask=mask-1 ...

Sat Jun 19 11:47:00 CST 2021 0 347
逻辑回归(logistic regression)

逻辑回归从线性回归引申而来,对回归的结果进行 logistic 函数运算,将范围限制在[0,1]区间,并更改损失函数为二值交叉熵损失,使其可用于2分类问题(通过得到的概率值与阈值比较进行分类)。 ...

Sat Mar 17 07:29:00 CST 2018 0 1231

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM