前言 過去幾個月,一直在學習機器學習模型,輸入只是學習的一部分,輸出可以幫助自己更熟練地掌握概念和知識。把一個復雜的事物簡單的講述出來,才能表示真正弄懂了這個知識。所以我將在博客中盡量簡單地把這些模型講述出來,以加深自己的掌握,也為他人提供一點點參考。感謝大神劉建平Pinard的博客,如有 ...
引言 神經網絡模型,特別是深度神經網絡模型,自AlexNet在Imagenet Challenge 上的一鳴驚人,無疑是Machine Learning Research上最靚的仔,各種進展和突破層出不窮,科學家工程師人人都愛它。 機器學習研究發展至今,除了神經網絡模型這種方法路徑外,還存在許多大相徑庭的方法路徑,比如說貝葉斯算法 遺傳算法 支持向量機等,這些經典算法在許多場景上也一直沿用。本文介 ...
2021-07-29 18:44 0 193 推薦指數:
前言 過去幾個月,一直在學習機器學習模型,輸入只是學習的一部分,輸出可以幫助自己更熟練地掌握概念和知識。把一個復雜的事物簡單的講述出來,才能表示真正弄懂了這個知識。所以我將在博客中盡量簡單地把這些模型講述出來,以加深自己的掌握,也為他人提供一點點參考。感謝大神劉建平Pinard的博客,如有 ...
以下內容僅為自己梳理知識,是許多人博客看后和思考的結晶,無故意抄襲,也記不清都看了哪些大神的博客。。。大家看見切勿怪罪! 決策樹: 決策樹可分為分類樹和回歸樹. ID3,C45是經典的分類模型,可二分類,多分類。它是通過挑選對整體區分度較大的屬性,朝着混亂程度減小的方向,迭代 ...
目錄 一、熵相關內容 1.1 熵的幾個相關定義 1.1.1 自信息和熵(單個變量) 1.1.2 聯合熵、條件熵和左右熵(多變 ...
一.決策樹 決策樹一般以選擇屬性的方式不同分為id3(信息增益),c4.5(信息增益率),CART(基尼系數),只能進行線性的分割,是一種貪婪的算法,其中sklearn中的決策樹分為回歸樹和分類樹兩種,默認的是CART的決策樹,下面介紹CART決策樹 分支條件:二分類問題(只用來構建二叉樹 ...
前面對GBDT的算法原理進行了描述,通過前文了解到GBDT是以回歸樹為基分類器的集成學習模型,既可以做分類,也可以做回歸,由於GBDT設計很多CART決策樹相關內容,就暫不對其算法流程進行實現,本節就根據具體數據,直接利用Python自帶的Sklearn工具包對GBDT進行實現。 數據集 ...
本打算將GBDT和XGBoost放在一起,但由於涉及內容較多,且兩個都是比較重要的算法,這里主要先看GBDT算法,XGBoost是GBDT算法的優化和變種,等熟悉GBDT后再去理解XGBoost就會容易的多 GBDT算法原理 GBDT(Gradient Boosting ...
GBDT (Gradient Boosting Decision Tree)屬於集成學習中的Boosting流派,迭代地訓練基學習器 (base learner),當前基學習器依賴於上一輪基學習器的學習結果。 不同於AdaBoost自適應地調整樣本的權值分布,GBDT是通過不斷地擬合殘差 ...
一、信息論基礎 樹具有天然的分支結構。對於分類問題而言,決策樹的思想是用節點代表樣本集合,通過某些判定條件來對節點內的樣本進行分配,將它們划分到該節點下的子節點,並且要求各個子節點中類別的純度之和應高於該節點中的類別純度,從而起到分類效果。 節點純度反映的是節點樣本標簽的不確定性。當一個節點 ...