十大經典預測算法


線性回歸

  • 輸入與輸出符合線性關系
  • 定義損失函數,損失函數是點(輸入 ,標簽)到直線的距離表示,越小越好
  • 通過梯度下降的方法,求解最優參數
  • 是一個迭代更新的過程
  • 屬於監督學習

邏輯回歸

  • 輸入屬於與輸入不符合線性關系
  • 標簽為0-1
  • 只能通過梯度下降來求最優參數
  • 分類任務,

GBDT (梯度提升決策樹)

  • 殘差值 = 真實值-預測值
  • 將殘差值作為下一輪的真實值
  • 迭代數次后,將所有的預測值相加

adboost

  • AdaBoost是一種Boosting的融合算法,它通過級聯的方式,把一系列的弱學習模型融合在一起變成一個強分類器。
  • AdaBoost既可以做分類,也可以做回歸
  • AdaBoost做分類模型的時候,默認的基學習類型是決策樹。
  • AdaBoost的多個子模型通過加權求和的方式融合,並不是簡單的求平均,子模型的權重取決於子模型的誤差率大小,誤差率越小,權值越大

支持向量機(SVM算法)

  • 通過核涵式,實現了將一位空間的運算映射到高維空間
  • 類似線性回歸,求一條擬合的直線
  • 與線性回歸的不同點:損失函數的值是越大越好,也就是點和直線之間的距離越大越好

隨即森林

集成學習(模型融合算法)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM