花费 6 ms
CTR预估评价指标介绍

1 离线指标 1.1 LogLoss 1.1.1 KL散度   logloss使用KL散度来计算。设样本的真实分布为P,预测分布为Q,则KL散度定义如下:      这里可以通俗地把KL散度 ...

Tue Nov 22 19:11:00 CST 2016 0 5578
《机器学习技法》---支持向量回归

1 核型岭回归 首先,岭回归的形式如下: 在《核型逻辑回归》中我们介绍过一个定理,即以上这种形式的问题,求得的w都能表示为z的线性组合: 因此我们把w代入,问题就转化为求β的问题,同时引 ...

Wed Mar 08 19:14:00 CST 2017 0 4696
《机器学习基石》---非线性变换

1 非线性变换 所谓非线性变换,就是把原始的特征做非线性变换,得到一个新的特征,使用这个新的特征来做线性的分类,则对应到原始的特征空间中,相当于做了非线性的分类。非线性变换的好处是,算法将有更多的选 ...

Tue Jan 24 19:21:00 CST 2017 0 2132
《机器学习基石》---噪声和错误

1 有噪声情况下的机器学习过程 由一个条件概率来产生数据的标签y,相当于一个确定函数加上噪声: 2 错误衡量方式 这里我们介绍pointwise的错误衡量方式。所谓point wise ...

Sun Jan 15 07:50:00 CST 2017 0 1547
《机器学习技法》---核型逻辑回归

1 无约束形式的soft-SVM 我们知道,soft-SVM的一般形式是: 这里我们把松弛变量ξn写成下面的形式(这里其实就是松弛变量的定义,如果这个点不违反硬条件,则它的松弛变量为0,否则的 ...

Fri Mar 03 01:13:00 CST 2017 0 1338
《机器学习技法》---随机森林

1 随机森林 bagging的好处是降低各个子分类器的variance,而决策树又是对数据敏感的算法,variance比较大。因此我们很自然地就把bagging用到了决策树。也就是基本的随机森林算法 ...

Tue Mar 07 05:55:00 CST 2017 0 1302

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM