的分布拉回到标准化的分布,使得激活函数的输入值落在激活函数对输入比较敏感的区域,从而使梯度变大,加快学习收 ...
深度学习了解多少,有看过底层代码吗 caffe,tf 除了GMM HMM,你了解深度学习在语音识别中的应用吗 参考回答: 讲了我用的过DNN HMM,以及与GMM HMM的联系与区别 然后RNN CTC,这里我只是了解,大概讲了一下CTC损失的原理 然后提了一下CNN LSTM。 用过哪些移动端深度学习框架 参考回答: 开源的有:小米的MACE,骁龙的SNPE,腾讯的FeatherCNN和ncn ...
2019-06-03 20:50 0 702 推荐指数:
的分布拉回到标准化的分布,使得激活函数的输入值落在激活函数对输入比较敏感的区域,从而使梯度变大,加快学习收 ...
● 神经网络为啥用交叉熵。 参考回答: 通过神经网络解决多分类问题时,最常用的一种方式就是在最后一层设置n个输出节点,无论在浅层神经网络还是在CNN中都是如此,比如,在AlexNet中最后的输 ...
1: LSTM结构推导,为什么比RNN好?答案:推导forget gate,input gate,cell state, hidden information等的变化;因为LSTM有进有出且当前的ce ...
● 分层抽样的适用范围 参考回答: 分层抽样利用事先掌握的信息,充分考虑了保持样本结构和总体结构的一致性,当总体由差异明显的几部分组成的时候,适合用分层抽样。 ● LR的损失函数 参考回 ...
● 请你说一说推荐算法,fm,lr,embedding 参考回答: 推荐算法: 基于人口学的推荐、基于内容的推荐、基于用户的协同过滤推荐、基于项目的协同过滤推荐、基于模型的协同过滤推荐、基于关联规则的推荐 FM: LR: 逻辑回归本质上是线性回归,只是在特征 ...
● 什么是DBSCAN 参考回答: DBSCAN是一种基于密度的空间聚类算法,它不需要定义簇的个数,而是将具有足够高密度的区域划分为簇,并在有噪声的数据中发现任意形状的簇,在此算法中将簇定义为密度相连的点的最大集合。 ● k-means算法流程 参考回答: 从数据集中随机选择k ...
交叉熵公式 参考回答: 交叉熵:设p(x)、q(x)是X中取值的两个概率分布,则p对q的相对熵是: 在一定程度上,相对熵可以度量两个随机变量的“距离”,且有D(p||q) ≠D(q| ...
● L1和L2正则化的区别 参考回答: L1是模型各个参数的绝对值之和,L2为各个参数平方和的开方值。L1更趋向于产生少量的特征,其它特征为0,最优的参数值很大概率出现在坐标轴上,从而导致产生 ...