代码来源:https://github.com/eriklindernoren/ML-From-Scratch 卷积神经网络中卷积层Conv2D(带stride、padding)的具体实现:https://www.cnblogs.com/xiximayou/p/12706576.html ...
代码来源:https://github.com/eriklindernoren/ML-From-Scratch 卷积神经网络中卷积层Conv2D(带stride、padding)的具体实现:https://www.cnblogs.com/xiximayou/p/12706576.html ...
缩写: NN: neural network, 神经网络 MSE: Mean Squared Error, 均方误差 CEE: Cross Entropy Error, 交叉熵误差.(此缩写不是一个conventional缩写) 标记符号: \(net ...
Sigmoid函数 当神经元的输出接近 1时,曲线变得相当平,即σ′(z)的值会很小,进而也就使∂C/∂w和∂C/∂b会非常小。造成学习缓慢,下面有一个二次代价函数的cost变化图,epoch从15到50变化很小。 引入交叉熵代价函数 针对上述问题,希望对输出层选择一个不包含 ...
均方差损失函数mse_loss()与交叉熵损失函数cross_entropy() 1.均方差损失函数mse_loss() 均方差损失函数是预测数据和原始数据对应点误差的平方和的均值。 \[MSE=\frac{1}{N}( y^`−y)^2 \] N为样本个数,y ...
符号: \[\left\{ {\left( {{x^{\left( 1 \right)}},{y^{\left( 1 \right)}}} \right),\left( {{x^{\left( 2 ...
用于表示预测值和实际值相差的程度。 二,平方差 平方差的定义很简单,顾名思义就是两个数先做平方然后再求差 ...
最近在看深度学习的"花书" (也就是Ian Goodfellow那本了),第五章机器学习基础部分的解释很精华,对比PRML少了很多复杂的推理,比较适合闲暇的时候翻开看看。今天准备写一写很多童鞋们w未必 ...
交叉熵损失函数 熵的本质是香浓信息量\(\log(\frac{1}{p})\)的期望 既然熵的本质是香浓信息量\(\log(\frac{1}{p})\)的期望,那么便有 \[H(p)=E[p_i\times\log(\frac{1}{p_i})]=\sum p_i\times ...