Manifold Learning t-SNE的“N E”就是Neighbor Embedding的缩写。现在要做的事情就是之前讲过的降维,只不过是非线性的降维。 我们知道数据点可能是高维空间 ...
半监督学习 什么是半监督学习 大家知道在监督学习里,有一大堆的训练数据 由input和output对组成 。例如上图所示 x r 是一张图片, y r 是类别的label。 半监督学习是说,在label数据上面,有另外一组unlabeled的数据,写成 x u 只有input没有output ,有 U 笔ublabeled的数据。 通常做半监督学习的时候,我们常见的情景是ublabeled的数量远 ...
2020-06-14 17:13 3 2154 推荐指数:
Manifold Learning t-SNE的“N E”就是Neighbor Embedding的缩写。现在要做的事情就是之前讲过的降维,只不过是非线性的降维。 我们知道数据点可能是高维空间 ...
1-of-N encoding 词嵌入其实是降维的一种非常好,非常广为人知的应用。 如果要用一个向量表示一个词,最典型的做法是1-of-N encoding。每一个词用一个向量表示,向量的维度 ...
把无监督学习分成两种 一种是化繁为简,可以分成两大类:聚类和降维 所谓的化繁为简的意思是说,找一个函数,可以input看起来像树的东西,output都是抽象的树,把本来复杂的东西,变成比较简单的output。在做无监督学习时,通常只会有函数中的一边。比如找一个函数,可以把所有的树都变成抽象 ...
什么是Auto-encoder 我们首先去找一个encoder,input一个东西,比如图像识别做MNIST的话,就是input一张手写数字图片(28 *28 维像素点),那就是input 78 ...
问题:越深越好? 层数越多,参数越多,model比较复杂,数据又多的话,本来误差就越小,这为什么归因于”深“呢? 矮胖结构 v.s. 高瘦结构 真正要比较”深“和”浅“的model的时候 ...
Transformer英文的意思就是变形金刚,Transformer现在有一个非常知名的应用,这个应用叫做BERT,BERT就是非监督的Transformer,Transformer是一个seq2seq model with “self-attention"。Transformer在seq2seq ...
李宏毅深度学习笔记 https://datawhalechina.github.io/leeml-notes 李宏毅深度学习视频 https://www.bilibili.com/video/BV1JE411g7XF step1 神经网络 激活函数是sigmoid,红色圈是一组神经元,每个 ...
P1 一、线性回归中的模型选择 上图所示: 五个模型,一个比一个复杂,其中所包含的function就越多,这样就有更大几率找到一个合适的参数集来更好的拟合训练集。所以,随着模型的复杂度提 ...