什么是支持向量机? 支持向量机有两个特色: 第一个是使用了Hinge Loss(折页损失函数、铰链损失函数) 另一个是最厉害的地方,有个kernel trick(核技巧) Hinge Loss+kernel trick就是支持向量机 机器学习三个步骤 思考二分类任务 ...
统一框架:两步走,三问题 两步 第一步:训练 寻找一个函数 F:X times Y to R F x,y 用来评估对象x和y的兼容性 or 合理性 第二步:推理 or 测试 给定一个对象 x ,求 large widetilde y arg max limits y in Y F x,y 给定任意一个 x ,穷举所有 y ,找出能让 F x,y 最大的 widetilde y 三问题 Q :评估 ...
2020-07-04 22:04 0 656 推荐指数:
什么是支持向量机? 支持向量机有两个特色: 第一个是使用了Hinge Loss(折页损失函数、铰链损失函数) 另一个是最厉害的地方,有个kernel trick(核技巧) Hinge Loss+kernel trick就是支持向量机 机器学习三个步骤 思考二分类任务 ...
之前讲了结构化学习的概念,其实学习都可以看做是两个步骤,只要回答三个问题,就可以解决所有学习的task。 序列标注 现在函数input是一个sequence,output也是一个sequence(先假设两个sequence的长度一样)。如上图所示,input \(x\)是\(x_1,x_2 ...
问题:越深越好? 层数越多,参数越多,model比较复杂,数据又多的话,本来误差就越小,这为什么归因于”深“呢? 矮胖结构 v.s. 高瘦结构 真正要比较”深“和”浅“的model的时候,要让它们的参数一样多。 “浅”的model就会是一个矮胖的model,“深”的model就会 ...
Transformer英文的意思就是变形金刚,Transformer现在有一个非常知名的应用,这个应用叫做BERT,BERT就是非监督的Transformer,Transformer是一个seq2se ...
李宏毅深度学习笔记 https://datawhalechina.github.io/leeml-notes 李宏毅深度学习视频 https://www.bilibili.com/video/BV1JE411g7XF step1 神经网络 激活函数是sigmoid,红色圈是一组神经元,每个 ...
P1 一、线性回归中的模型选择 上图所示: 五个模型,一个比一个复杂,其中所包含的function就越多,这样就有更大几率找到一个合适的参数集来更好的拟合训练集。所以,随着模型的复杂度提 ...
半监督学习 什么是半监督学习? 大家知道在监督学习里,有一大堆的训练数据(由input和output对组成)。例如上图所示\(x^r\)是一张图片,\(y^r\)是类别的label。 半监督学习是说,在label数据上面,有另外一组unlabeled的数据,写成\(x^u ...
李宏毅深度学习笔记 https://datawhalechina.github.io/leeml-notes 李宏毅深度学习视频 https://www.bilibili.com/video/BV1JE411g7XF 背景 梯度下降 假设有很多参数\(\theta\) 选择一组初始值 ...