(写在前面:机器学习入行快2年了,多多少少用过一些算法,但由于敲公式太过浪费时间,所以一直搁置了开一个机器学习系列的博客。但是现在毕竟是电子化的时代,也不可能每时每刻都带着自己的记事本。如果可以掏出手机或iPad登陆网站就可以看到自己的一些笔记,才更有助于知识的巩固。借此机会,重新整理各大算法 ...
一 Hard Margin SVM SVM 的思想,最终用数学表达出来,就是在优化一个有条件的目标函数: 此为 Hard Margin SVM,一切的前提都是样本类型线性可分 思想 SVM 算法的本质就是最大化 margin margin d,SVM 要最大化 margin,也就是要最大化 d,所以只要找到 d 的表达式,也能解决相应的问题 特征空间中样本点到决策边界的距离 二维平面中: n 维空 ...
2018-08-03 12:46 0 979 推荐指数:
(写在前面:机器学习入行快2年了,多多少少用过一些算法,但由于敲公式太过浪费时间,所以一直搁置了开一个机器学习系列的博客。但是现在毕竟是电子化的时代,也不可能每时每刻都带着自己的记事本。如果可以掏出手机或iPad登陆网站就可以看到自己的一些笔记,才更有助于知识的巩固。借此机会,重新整理各大算法 ...
什么是Hard-Margin SVM?指的是这个向量机只适用于“数据完全可分(seperately)”的情况。 (一)什么是支持向量机? 上述三条直线,选择哪一条比较好?直觉上来说,最右面的那条直线最好。因为它的Margin比较胖,对数据点中混杂的噪声容忍度更高,更加robust ...
引言 对于SVM的大致原理之前已经讲过了,但是对于公式的推导,很多书都并未做要求,而且在实际应用过程中并未涉及过深,但鉴于台大机器学习课程中讲到了,自己为了巩固自己的学习,也梳理一遍SVM中公式的推导 此处考虑了C,也就是惩罚因子,不再是之前的hard-margin ...
随机变量,X服从逻辑斯谛分布是指X具有如下的累积分布函数和概率密度函数: ...
四篇笔记链接为: Python机器学习笔记:SVM(1)——SVM概述 Python机器学习笔记:S ...
背景 之前所讨论的SVM都是非常严格的hard版本,必须要求每个点都被正确的区分开。但是,实际情况时很少出现这种情况的,因为噪声数据时无法避免的。所以,需要在hard SVM上添加容错机制,使得可以容忍少量噪声数据。 "软"化问题 软化SVM的思路有点类似正规化,在目标函数添加错误累加 ...
SVM-核函数 在研究了一天的SVM核函数后,我顿悟了一个道理: 研究和使用核函数的人,从一开始的目的就是把data分开而已。高维和映射,都是原来解释操作合理性的,但根本不是进行这一操作的原因 我为什么会这么想?我们举一个例子,就说径向基函数核(RBF)吧,按理来说,它的映射应该是和高斯分布 ...
svm分类算法在opencv3中有了很大的变动,取消了CvSVMParams这个类,因此在参数设定上会有些改变。 opencv中的svm分类代码,来源于libsvm。 结果: 如果只是简单的点分类,svm的参数设置就这么两行就行了,但如果是其它更为复杂的分类,则需要设置更多 ...