sklearn中的SGDClassifier


常用于大规模稀疏机器学习问题上

1.优点:

高效

简单

2.可以选择损失函数

  • loss=”hinge”: (soft-margin)线性SVM.
  • loss=”modified_huber”: 带平滑的hinge loss.
  • loss=”log”: logistic回归

3.通过penalty参数,可以设置对应的惩罚项。SGD支持下面的罚项:

  • penalty=”l2”: 对coef_的L2范数罚项
  • penalty=”l1”: 对coef_的L1范数罚项
  • penalty=”elasticnet”: L2和L1的convex组合; (1 - l1_ratio) * L2 + l1_ratio * L1

详见:http://d0evi1.com/sklearn/sgd/


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM