信息论(Information Theory)是概率论与数理统计的一个分枝。用于信息处理、信息熵、通信系统、数据传输、率失真理论、密码学、信噪比、数据压缩和相关课题。 基本概念 先说明一点:在信息论里面对数log默认都是指以2为底数。 自信息量 联合自信息量 条件自信息 ...
Wordle 与 信息论 前言 最近,wordle 游戏在朋友圈中大火。那么 wordle 究竟是什么呢 其实就是一个猜单词游戏,每次输入一个长度为 的单词,系统会告诉你,在你的猜测中,哪些字母的位置是正确的,哪些字母出现在目标单词中但是位置不正确。根据这些提示,你需要在 次机会之内找到这个单词。 本人在看了 b b 的视频之后,发现 NOIWC T 猜词恰好正是 wordle 游戏,于是开始尝试 ...
2022-03-22 11:27 0 789 推荐指数:
信息论(Information Theory)是概率论与数理统计的一个分枝。用于信息处理、信息熵、通信系统、数据传输、率失真理论、密码学、信噪比、数据压缩和相关课题。 基本概念 先说明一点:在信息论里面对数log默认都是指以2为底数。 自信息量 联合自信息量 条件自信息 ...
所处的时代是信息时代,信息时代的最主要特征是不确定性。以前的靠某个规律或者通过简单的几条生活智慧活好一辈 ...
信息的度量 信息具可度量性,其大小取决于信息所消除的不确定性 举例如下: 消息A:中国女子乒乓球队夺取亚运会冠军。 消息B:中国男子足球队夺取世界杯赛冠军。 从事件的描述上来看,其主题内容大致相同,那么我们是否可以认为事件A和事件B具有 ...
基础信息论复习 目录 基础信息论复习 课程复习指引: 第2章 信息熵 一. 信息量 二. 互信息量与条件互信息量 三. 信源熵 四. 离散平稳信源 五. 马尔可夫信源与冗余度 ...
1. 信息熵 熵度量了事物的不确定性,越不确定的事物,它的熵就越大。在没有外部环境的作用下,事物总是向着熵增大的方向发展,所以熵越大,可能性也越大。 \[H(X)=-\sum_{i=1}^np_{(i)}logp_{(i)} \] 2. 条件熵 X确定时,Y的不确定性度量。 在X ...
前置知识 上述公式是自信息量公式,该单位取决于对数的底,若以2为底,则单位为比特(bit),以e为底,单位为奈特,以10为底,单位为哈特。通常我们取比特为单位。 熵 熵是从整个集合的统计特性来考虑的,他从平均意义上来表征信源的总体特征 ...
之前只知道香农于1948年发表的那篇举世瞩目的paper,《A Mathematical Theory of Communication》,过了一年拉上Warren Weaver作为共同作者出了个单行 ...
典型序列: 信源有p个编码,,,,每个编码有一个出现的概率 那么对于这个信源发出的n长序列 一共有pn个n长序列 其中有一小部分,出现的概率较大,称为典型序列 其他的序列 ...