花费 15 ms
机器学习之损失函数

0. 前言 1. 损失函数 2. Margin 3. Cross-Entropy vs. Squared Error 总结 参考资料 0. 前言 “尽管新技术新算法层出不穷,但是掌握好基础算法就能解决手头 90% 的机器学习问题 ...

Fri Dec 01 05:17:00 CST 2017 0 4094
Cross-entropy

我们希望并期望我们的网络能够从他们的错误中学习的很快,首先看一个小例子。 我们将训练这个神经元做一些非常简单的事情:把输入的1转换成输出的0。当然,如果我们不是用学习算法,可以很容易地计算 ...

Tue May 14 03:52:00 CST 2019 0 1508
【深度学习笔记】第 2 课:Logistic 多项式回归法

softmax模型可以用来给不同的对象分配概率。即使在之后,我们训练更加精细的模型时,最后一步也需要用softmax来分配概率。 cross-entropy 交叉熵是度量这两个向量距离的方法之一。我们将记它为D以表示距离。 labels标签向量经过了one-hot编码 ...

Sun Jan 22 23:56:00 CST 2017 0 1604

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM