牛客上总结很好,但是有一些小错误与重复,自己再总结一下好了,顺便复习。
交叉熵公式
两个概率分布
和
的交叉熵是指,当基于一个“非自然”(相对于“真实”分布
而言)的概率分布
进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。

$ P $ 和 $ Q $ 的KL散度 ,又叫他们之间的相对熵,注意相对熵和交叉熵是不一样的。

可知,
\[D_{{{\mathrm {KL}}}}(P\|Q)=\sum _{i}P(i)\ln { P(i)}+P(i)\ln {\frac {1}{Q(i)}}.\! \]
因此 交叉熵和KL散度(又称相对熵)有如下 关系,
![{\displaystyle H(p,q)=\operatorname {E} {p}[-\log q]=H(p)+D{\mathrm {KL} }(p|q),!}](/image/aHR0cHM6Ly93aWtpbWVkaWEub3JnL2FwaS9yZXN0X3YxL21lZGlhL21hdGgvcmVuZGVyL3N2Zy84MGJkMTNjNzIzZGNlNTA1NmE2ZjNhYTFiMjllMjc5ZmI5MGQ0MGJk.png)
互信息的定义
一般地,两个离散随机变量 X 和 Y 的互信息可以定义为:

其中 p(x,y) 是 X 和 Y 的联合概率分布函数,而
和
分别是 X 和 Y 的边缘概率分布函数。
互信息与KL散度的关系
由KL散度定义可知,互信息与KL散度有如下关系,

记 p(x|y) = p(x, y) / p(y) , 事实上还有一个关系,

互信息与各种熵的关系大汇总。。。

其中
和
是边缘熵,H(X|Y) 和 H(Y|X) 是条件熵,而 H(X,Y) 是 X 和 Y 的联合熵。
下面是其中一个的证明,其它应该也不难证明,如果概念搞清楚的话,

logistic回归推导
参考我之前cs229学习笔记。
人生充满了巧合。巧就巧在,在我的第一家面试,在上海豪生大酒店三楼,甜橙金融的算法面试。面试官问我的两个问题就是互信息与KL散度的关系以及逻辑斯蒂克回归的一些问题。当时一紧张就回答不太好。公式都快忘了,没有任何准备。
现在正在等面试结果。是2019年10月17号上午10点面的,等得我好慌。
不慌,打不了春招,人生说不定也有惊喜,即使是惊吓,也练练我的承受力。各项事务汇集在一点,这几天又要抽送外审的论文。

