http://www.scipy-lectures.org/advanced/mathematical_optimization/index.html#a-review-of-the-different-optimizers 机器学习中数学优化专门用于解决寻找一个函数的最小值的问题。这里的函数 ...
在机器学习中,我们将模型在训练集上的误差称之为训练误差,又称之为经验误差,在新的数据集 比如测试集 上的误差称之为泛化误差,泛化误差也可以说是模型在总体样本上的误差。对于一个好的模型应该是经验误差约等于泛化误差,也就是经验误差要收敛于泛化误差,根据霍夫丁不等式可知经验误差在一定条件下是可以收敛于泛化误差的。 当机器学习模型对训练集学习的太好的时候 再学习数据集的通性的时候,也学习了数据集上的特性 ...
2018-07-08 20:38 0 14281 推荐指数:
http://www.scipy-lectures.org/advanced/mathematical_optimization/index.html#a-review-of-the-different-optimizers 机器学习中数学优化专门用于解决寻找一个函数的最小值的问题。这里的函数 ...
0x00 概述 在数据挖掘中,我们经常需要计算样本之间的相似度,通常的做法是计算样本之间的距离。 在本文中,数据科学家 Maarten Grootendorst 向我们介绍了 9 种距离度量方法,其中包括欧氏距离、余弦相似度等。 许多算法,无论是监督学习还是无监督学习,都会使用距离度量 ...
损失函数是机器学习中常用于优化模型的目标函数,无论是在分类问题,还是回归问题,都是通过损失函数最小化来求得我们的学习模型的。损失函数分为经验风险损失函数和结构风险损失函数。经验风险损失函数是指预测结果和实际结果的差别,结构风险损失函数是指经验风险损失函数加上正则项。通常 ...
损失函数是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风 ...
在机器学习、人工智能领域常用的距离计算公式。 曼哈顿距离 曼哈顿距离又称“计程车距离”,由十九世纪的赫尔曼·闵可夫斯基所创。点\(P_1(x_1,y_1)\)和\(P_2(x_2,y_2)\)的距离如下: \[distance(P_1,P_2)=|x_2-x_1|+|y_2-y_1 ...
过拟合 在进行数据挖掘或者机器学习模型建立的时候,因为在统计学习中,假设数据满足独立同分布,即当前已产生的数据可以对未来的数据进行推测与模拟,因此都是使用历史数据建立模型,即使用已经产生的数据去训练,然后使用该模型去拟合未来的数据。但是一般独立同分布的假设往往不成立,即数据的分布可能会 ...
采样方法 目录 采样方法 Inverse CDF 接受-拒绝采样(Acceptance-Rejection Sampling) 蒙特卡洛方法 重要性采样: MCMC(Markov Chain Monte ...
通常机器学习每一个算法中都会有一个目标函数,算法的求解过程是通过对这个目标函数优化的过程。在分类或者回归问题中,通常使用损失函数(代价函数)作为其目标函数。损失函数用来评价模型的预测值和真实值不一样的程度,损失函数越好,通常模型的性能越好。不同的算法使用的损失函数不一样。 损失 ...