目录 1.逻辑回归 2.支持向量机 3.决策树 4.KNN算法 5.朴素贝叶斯算法 6.随机森林 7.AdaBoost算法 8.GBDT算法 9.XGBoost 10.人工神经网络 1.逻辑回归 二项logistic回归模型是一种分类模型,由条件概率分布P(Y|X ...
决策树 适用条件:数据不同类边界是非线性的,并且通过不断将特征空间切分为矩阵来模拟。特征之间有一定的相关性。特征取值的数目应该差不多,因为信息增益偏向于更多数值的特征。 优点: .直观的决策规则 .可以处理非线性特征 .考虑了变量之间的相互作用。 缺点: .容易过拟合 随机森林 剪枝 .处理缺失数据时的困难 数据集中属性间的相关性。 SVM 适用条件:特征空间大,可以处理非线性的特征。 优点: ...
2018-06-19 12:12 0 2757 推荐指数:
目录 1.逻辑回归 2.支持向量机 3.决策树 4.KNN算法 5.朴素贝叶斯算法 6.随机森林 7.AdaBoost算法 8.GBDT算法 9.XGBoost 10.人工神经网络 1.逻辑回归 二项logistic回归模型是一种分类模型,由条件概率分布P(Y|X ...
1决策树(Decision Trees)的优缺点 决策树的优点: 一、 决策树易于理解和解释.人们在通过解释后都有能力去理解决策树所表达的意义。 二、 对于决策树,数据的准备往往是简单或者是不必要的.不需要预处理数据 ...
。 我们将根据自己的经验讨论每种算法的优缺点。 对机器学习算法进行分类是棘手的,有几种合理的方法; 机器学习算法可以 ...
1.线性回归 线性回归是回归任务最常用的算法。它最简的形式,是用一个连续的超平面来拟合数据集(比如,当你仅有两个变量时就用一条直线)。如果数据集内的变量存在线性关系,拟合程度就相当高。 在实践中,简单线性回归通常会被其正则化形式(LASSO、Ridge 及弹性网络)所取代。正则化是对过 ...
一、KNN算法原理 K近邻法(k-nearst neighbors,KNN)是一种很基本的机器学习方法。 它的基本思想是: 在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别 ...
,准确率高。 缺点: 在构造过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效 ...
K近邻:算法采用测量不同特征值之间的距离的方法进行分类。 优点: 1.简单好用,容易理解,精度高,理论成熟,既可以用来做分类也可以用来做回归; 2.可用于数值型数据和离散型数据; 3.训练时间复杂度为O(n);无数据输入假定; 4.对异常值不敏感 缺点: 1.计算复杂性高;空间复杂性高 ...
快。 4、决策树可以很好的扩展到大型数据库中,同时它的大小独立于数据库大小。 二、决策树缺点 1、对缺失数据 ...