● 分層抽樣的適用范圍 參考回答: 分層抽樣利用事先掌握的信息,充分考慮了保持樣本結構和總體結構的一致性,當總體由差異明顯的幾部分組成的時候,適合用分層抽樣。 ● LR的損失函數 參考回 ...
請你說一說推薦算法,fm,lr,embedding 參考回答: 推薦算法: 基於人口學的推薦 基於內容的推薦 基於用戶的協同過濾推薦 基於項目的協同過濾推薦 基於模型的協同過濾推薦 基於關聯規則的推薦 FM: LR: 邏輯回歸本質上是線性回歸,只是在特征到結果的映射中加入了一層邏輯函數g z ,即先把特征線性求和,然后使用函數g z 作為假設函數來預測。g z 可以將連續值映射到 和 。g z ...
2019-06-03 20:47 0 3289 推薦指數:
● 分層抽樣的適用范圍 參考回答: 分層抽樣利用事先掌握的信息,充分考慮了保持樣本結構和總體結構的一致性,當總體由差異明顯的幾部分組成的時候,適合用分層抽樣。 ● LR的損失函數 參考回 ...
● 什么是DBSCAN 參考回答: DBSCAN是一種基於密度的空間聚類算法,它不需要定義簇的個數,而是將具有足夠高密度的區域划分為簇,並在有噪聲的數據中發現任意形狀的簇,在此算法中將簇定義為密度相連的點的最大集合。 ● k-means算法流程 參考回答: 從數據集中隨機選擇k ...
交叉熵公式 參考回答: 交叉熵:設p(x)、q(x)是X中取值的兩個概率分布,則p對q的相對熵是: 在一定程度上,相對熵可以度量兩個隨機變量的“距離”,且有D(p||q) ≠D(q| ...
● L1和L2正則化的區別 參考回答: L1是模型各個參數的絕對值之和,L2為各個參數平方和的開方值。L1更趨向於產生少量的特征,其它特征為0,最優的參數值很大概率出現在坐標軸上,從而導致產生 ...
原文鏈接:https://blog.csdn.net/weixin_38664232/article/details/89948373 1、模型產生過擬合的原因及解決方案 什么是過擬合: 模型在 ...
● BatchNormalization的作用 參考回答: 神經網絡在訓練的時候隨着網絡層數的加深,激活函數的輸入值的整體分布逐漸往激活函數的取值區間上下限靠近,從而導致在反向傳播時低層的神經 ...
● 深度學習了解多少,有看過底層代碼嗎?caffe,tf? ● 除了GMM-HMM,你了解深度學習在語音識別中的應用嗎? 參考回答: 講了我用的過DNN-HMM,以及與GMM-HMM的 ...
1: LSTM結構推導,為什么比RNN好?答案:推導forget gate,input gate,cell state, hidden information等的變化;因為LSTM有進有出且當前的ce ...