原文:损失函数-激活函数-正则化

损失函数主要分为回归损失函数和分类损失函数。 回归: L 损失 均方误差 MSE L 损失 平均绝对值误差 MAE 考虑方向 gt 平均偏差MBE Huber损失 平滑的平均绝对误差 Log Cosh损失 分位数损失。更关注区间预测 分类: 对数损失函数 Focal loss.解决one stage中正负样本比例失衡 相对熵 relative entropy 指数损失 合页损失 损失 Logis ...

2019-07-25 15:25 0 382 推荐指数:

查看详情

练习:给Keras ResNet50源码加上正则化参数, 修改激活函数为Elu

最近学习了一下ResNet50模型,用其跑了个Kaggle比赛,并仔细阅读了其Keras实现。在比赛中,我修改了一下源码,加入了正则项,激活函数改为elu, 日后的应用中也可以直接copy 使用之。 ResNet50 的结构图网上已经很多了,例如这篇博文:https ...

Wed Oct 09 07:10:00 CST 2019 0 1254
激活函数损失函数,优化器

目录 1. 激活函数 1.1. 为什么需要激活函数(激励函数) 1.1.1. ReLU 1.1.2. sigmod 1.1.3. tanh 1.2. Pytorch常见激活函数 ...

Mon Sep 28 19:56:00 CST 2020 0 480
损失函数公式推导以及L2正则化

损失函数公式推导以及L2正则化 假设预测函数为 \(h\),预测函数中出现的所有常量为 \(\Theta\)(常量可能不止一个,所以用大写的来表示) 例如 \(h=ax+bx^2+c\),那么 \(\Theta=(a,b,c)\) 那么 \(h_{\Theta ...

Tue Mar 15 04:06:00 CST 2022 0 689
L1和L2:损失函数正则化

作为损失函数 L1范数损失函数   L1范数损失函数,也被称之为平均绝对值误差(MAE)。总的来说,它把目标值$Y_i$与估计值$f(x_i)$的绝对差值的总和最小。 $$S=\frac{1}{N}\sum_{i=1}^n|Y_i-f(x_i)|$$ L2范数损失函数 ...

Wed Jan 29 23:16:00 CST 2020 0 744
深度学习:激活函数损失函数、优化函数的区别

激活函数:将神经网络上一层的输入,经过神经网络层的非线性变换转换后,通过激活函数,得到输出。常见的激活函数包括:sigmoid, tanh, relu等。https://blog.csdn.net/u013250416/article/details/80991831 损失函数:度量神经网络 ...

Wed Nov 04 03:11:00 CST 2020 0 538
机器学习中常用激活函数损失函数

1. 激活函数 1.1 各激活函数曲线对比 常用激活函数: 1.2 各激活函数优缺点 sigmoid函数 优点:在于输出映射在(0,1)范围内,单调连续,适合用作输出层,求导容易 缺点:一旦输入落入饱和区,一阶导数接近0,就可能产生 ...

Tue Aug 13 23:54:00 CST 2019 0 1538
tensorflow中常用激活函数损失函数

激活函数激活函数曲线对比 常用激活函数: 各激活函数优缺点 sigmoid函数 tanh函数 relu函数 elu函数 softplus函数 softmax函数 dropout函数 一般规则 损失 ...

Sat Apr 20 02:18:00 CST 2019 0 1510
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM