1 离线指标 1.1 LogLoss 1.1.1 KL散度 logloss使用KL散度来计算。设样本的真实分布为P,预测分布为Q,则KL散度定义如下: 这里可以通俗地把KL散度 ...
1 离线指标 1.1 LogLoss 1.1.1 KL散度 logloss使用KL散度来计算。设样本的真实分布为P,预测分布为Q,则KL散度定义如下: 这里可以通俗地把KL散度 ...
1 核型岭回归 首先,岭回归的形式如下: 在《核型逻辑回归》中我们介绍过一个定理,即以上这种形式的问题,求得的w都能表示为z的线性组合: 因此我们把w代入,问题就转化为求β的问题,同时引 ...
1 非线性变换 所谓非线性变换,就是把原始的特征做非线性变换,得到一个新的特征,使用这个新的特征来做线性的分类,则对应到原始的特征空间中,相当于做了非线性的分类。非线性变换的好处是,算法将有更多的选 ...
1 有噪声情况下的机器学习过程 由一个条件概率来产生数据的标签y,相当于一个确定函数加上噪声: 2 错误衡量方式 这里我们介绍pointwise的错误衡量方式。所谓point wise ...
1 无约束形式的soft-SVM 我们知道,soft-SVM的一般形式是: 这里我们把松弛变量ξn写成下面的形式(这里其实就是松弛变量的定义,如果这个点不违反硬条件,则它的松弛变量为0,否则的 ...
1 随机森林 bagging的好处是降低各个子分类器的variance,而决策树又是对数据敏感的算法,variance比较大。因此我们很自然地就把bagging用到了决策树。也就是基本的随机森林算法 ...