花費 27 ms
變分推斷(Variational Inference)

變分 對於普通的函數f(x),我們可以認為f是一個關於x的一個實數算子,其作用是將實數x映射到實數f(x)。那么類比這種模式,假設存在函數算子F,它是關於f(x)的函數算子,可以將f(x)映射成實數F ...

Wed Jan 03 10:38:00 CST 2018 0 30260
評分卡系列(二):特征工程

時間:JSong 時間:2018.01.14 文章很長,理論和實現都講的很細,大家可以先收藏,有時間再看。 在上一篇文章中,我們對LendingClub的數據有了一個大致的了解,這次我將 ...

Mon Jan 15 03:37:00 CST 2018 4 11810
ELBO 與 KL散度

淺談KL散度 一、第一種理解   相對熵(relative entropy)又稱為KL散度(Kullback–Leibler divergence,簡稱KLD),信息散度(information ...

Sat Jan 13 21:56:00 CST 2018 0 8474
評分卡系列(三):分類學習器的評估

作者:JSong 時間:2018.01.14 評分卡可以用來預測客戶的好壞。當一個評分卡已經構建完成,並且有一組個人分數和其對應的好壞狀態的數據時,我們想知道所構建的評分卡是否可靠?可靠程度如何?而 ...

Mon Jan 15 04:30:00 CST 2018 0 5620
交叉熵損失函數

交叉熵損失函數 熵的本質是香濃信息量\(\log(\frac{1}{p})\)的期望 既然熵的本質是香濃信息量\(\log(\frac{1}{p})\)的期望,那么便有 \[H( ...

Fri Apr 28 23:39:00 CST 2017 1 6494
信息熵相關知識總結

前言 學習決策樹時會接觸到一些信息熵,條件熵和信息增益的知識,此外還有互信息,相對熵,交叉熵和互信息,KL散度等等亂七八糟的知識和名字,我本人已經記得大腦混亂了,還沒有全部記住,所以在這里記錄一下. ...

Wed Dec 19 03:22:00 CST 2018 0 1965

 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM