十大经典预测算法


线性回归

  • 输入与输出符合线性关系
  • 定义损失函数,损失函数是点(输入 ,标签)到直线的距离表示,越小越好
  • 通过梯度下降的方法,求解最优参数
  • 是一个迭代更新的过程
  • 属于监督学习

逻辑回归

  • 输入属于与输入不符合线性关系
  • 标签为0-1
  • 只能通过梯度下降来求最优参数
  • 分类任务,

GBDT (梯度提升决策树)

  • 残差值 = 真实值-预测值
  • 将残差值作为下一轮的真实值
  • 迭代数次后,将所有的预测值相加

adboost

  • AdaBoost是一种Boosting的融合算法,它通过级联的方式,把一系列的弱学习模型融合在一起变成一个强分类器。
  • AdaBoost既可以做分类,也可以做回归
  • AdaBoost做分类模型的时候,默认的基学习类型是决策树。
  • AdaBoost的多个子模型通过加权求和的方式融合,并不是简单的求平均,子模型的权重取决于子模型的误差率大小,误差率越小,权值越大

支持向量机(SVM算法)

  • 通过核涵式,实现了将一位空间的运算映射到高维空间
  • 类似线性回归,求一条拟合的直线
  • 与线性回归的不同点:损失函数的值是越大越好,也就是点和直线之间的距离越大越好

随即森林

集成学习(模型融合算法)


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM