交叉熵损失函数(作用及公式推导) 一、总结 一句话总结: $$C = - \frac { 1 } { n } \sum _ { x } [ y \ln a + ( 1 - y ) \ln ( 1 ...
交叉熵损失函数(作用及公式推导) 一、总结 一句话总结: $$C = - \frac { 1 } { n } \sum _ { x } [ y \ln a + ( 1 - y ) \ln ( 1 ...
数据挖掘十大经典算法(各自优缺点 / 适用数据场景) 一、总结 一句话总结: 【C4.5】(一种分类决策树算法)、【K-Means算法】(聚类算法) 【Support vector machi ...
无偏估计量通俗易懂理解 一、总结 一句话总结: 概率论中的无偏估计中的偏就是机器学习中我们常常遇见的偏差bias,方差也是对应的 二、无偏估计量通俗易懂理解(转) 转自:http ...
全概率公式和贝叶斯公式 一、总结 一句话总结: 全概率就是表示达到某个目的,有多种方式(或者造成某种结果,有多种原因),问达到目的的概率是多少(造成这种结果的概率是多少) 贝叶斯公式就是当已知 ...
深度学习中,交叉熵损失函数为什么优于均方差损失函数 一、总结 一句话总结: A)、原因在于交叉熵函数配合输出层的激活函数如sigmoid或softmax函数能更快地加速深度学习的训练速度 B) ...
深度学习四大经典书籍 一、总结 一句话总结: 《Deep Learning with Python》:是 Keras 作者写的书,所以全书基本围绕着 Keras 讲深度学习的各种实现,从 CNN ...