一、相同點 第一,LR和SVM都是分類算法(SVM也可以用與回歸) 第二,如果不考慮核函數,LR和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的。 這里要先說明一點,那就是LR也是可以用核函數的。總之,原始的LR和SVM都是線性分類器,這也是為什么通常沒人問你決策樹和LR ...
原文:http: blog.sina.com.cn s blog f fde vvpy.html 在大大小小的面試過程中,多次被問及這個問題: 請說一下邏輯回歸 LR 和支持向量機 SVM 之間的相同點和不同點 。第一次被問到這個問題的時候,含含糊糊地說了一些,大多不在點子上,后來被問得多了,慢慢也就理解得更清楚了,所以現在整理一下,希望對以后面試機器學習方向的同學有所幫助 至少可以瞎扯幾句,而不 ...
2015-12-11 13:34 2 31603 推薦指數:
一、相同點 第一,LR和SVM都是分類算法(SVM也可以用與回歸) 第二,如果不考慮核函數,LR和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的。 這里要先說明一點,那就是LR也是可以用核函數的。總之,原始的LR和SVM都是線性分類器,這也是為什么通常沒人問你決策樹和LR ...
這個問題在最近面試的時候被問了幾次,讓談一下Logistic回歸(以下簡稱LR)和SVM的異同。由於之前沒有對比分析過,而且不知道從哪個角度去分析,一時語塞,只能不知為不知。 現在對這二者做一個對比分析,理清一下思路。 相同點 1、LR和SVM都是分類算法(曾經我認為 ...
兩種方法都是常見的分類算法,從目標函數來看,區別在於邏輯回歸采用的是logistical loss,svm采用的是hinge loss。這兩個損失函數的目的都是增加對分類影響較大的數據點的權重,減少與分類關系較小的數據點的權重。SVM的處理方法是只考慮support vectors,也就是和分類最 ...
LR: LR的目標是最小化模型分布和經驗分布之間的交叉熵,LR基於概率理論中的極大似然估計。首先假設樣本為0或者1的概率可以用sigmoid函數來表示,然后通過極大似然估計的方法估計出參數的值,即讓模型產生的分布P(Y|X)盡可能接近訓練數據的分布。 SVM: SVM的目標 ...
之前一篇博客中介紹了Logistics Regression的理論原理:http://www.cnblogs.com/bentuwuying/p/6616680.html。 在大大小小的面試過程中,經常會有這個問題:“請說一下邏輯回歸(LR)和支持向量機(SVM)之間的相同點和不同點”。現在整理 ...
首先,SVM和LR(Logistic Regression)都是分類算法。SVM通常有4個核函數,其中一個是線性核,當使用線性核時,SVM就是Linear SVM,其實就是一個線性分類器,而LR也是一個線性分類器,這是兩者的共同之處。 不同之處在於,第一,LR只要求計算出一個決策面,把樣本點分為 ...
之前整理過一篇關於邏輯回歸的帖子,但是只是簡單介紹了一下了LR的基本思想,面試的時候基本用不上,那么這篇帖子就深入理解一下LR的一些知識,希望能夠對面試有一定的幫助。 1、邏輯斯諦分布 介紹邏輯斯諦回歸模型之前,首先看一個並不常見的概率分布,即邏輯斯諦分布。設X是連續 ...
一、LR LR,DT,SVM都有自身的特性,首先來看一下LR,工業界最受青睞的機器學習算法,訓練、預測的高效性能以及算法容易實現使其能輕松適應工業界的需求。LR還有個非常方便實用的額外功能就是它並不會給出離散的分類結果,而是給出該樣本屬於各個類別的概率(多分類的LR就是softmax),可以嘗試 ...