回歸的區別 參考回答: 線性回歸用來做預測,LR用來做分類。線性回歸是來擬合函數,LR是來預測函 ...
L 和L 正則化的區別 參考回答: L 是模型各個參數的絕對值之和,L 為各個參數平方和的開方值。L 更趨向於產生少量的特征,其它特征為 ,最優的參數值很大概率出現在坐標軸上,從而導致產生稀疏的權重矩陣,而L 會選擇更多的矩陣,但是這些矩陣趨向於 。 問題:LossFunction有哪些,怎么用 參考回答: 平方損失 預測問題 交叉熵 分類問題 hinge損失 SVM支持向量機 CART回歸樹的 ...
2019-06-03 20:43 0 618 推薦指數:
回歸的區別 參考回答: 線性回歸用來做預測,LR用來做分類。線性回歸是來擬合函數,LR是來預測函 ...
● 什么是DBSCAN 參考回答: DBSCAN是一種基於密度的空間聚類算法,它不需要定義簇的個數,而是將具有足夠高密度的區域划分為簇,並在有噪聲的數據中發現任意形狀的簇,在此算法中將簇定義為密度相連的點的最大集合。 ● k-means算法流程 參考回答: 從數據集中隨機選擇k ...
交叉熵公式 參考回答: 交叉熵:設p(x)、q(x)是X中取值的兩個概率分布,則p對q的相對熵是: 在一定程度上,相對熵可以度量兩個隨機變量的“距離”,且有D(p||q) ≠D(q| ...
● 請你說一說推薦算法,fm,lr,embedding 參考回答: 推薦算法: 基於人口學的推薦、基於內容的推薦、基於用戶的協同過濾推薦、基於項目的協同過濾推薦、基於模型的協同過濾推薦、基於關聯規則的推薦 FM: LR: 邏輯回歸本質上是線性回歸,只是在特征 ...
● BatchNormalization的作用 參考回答: 神經網絡在訓練的時候隨着網絡層數的加深,激活函數的輸入值的整體分布逐漸往激活函數的取值區間上下限靠近,從而導致在反向傳播時低層的神經 ...
● 深度學習了解多少,有看過底層代碼嗎?caffe,tf? ● 除了GMM-HMM,你了解深度學習在語音識別中的應用嗎? 參考回答: 講了我用的過DNN-HMM,以及與GMM-HMM的 ...
1: LSTM結構推導,為什么比RNN好?答案:推導forget gate,input gate,cell state, hidden information等的變化;因為LSTM有進有出且當前的ce ...
● 神經網絡為啥用交叉熵。 參考回答: 通過神經網絡解決多分類問題時,最常用的一種方式就是在最后一層設置n個輸出節點,無論在淺層神經網絡還是在CNN中都是如此,比如,在AlexNet中最后的輸出層有1000個節點,而即便是ResNet取消了全連接層,也會在最后有一個1000個節點的輸出層 ...