原文:基于信息熵的无字典分词算法

这几天在研究如何用统计方法来发现新词,扩充自己的词典。看到了几篇很有想法的文章,作者阐述了一下思路。文章里面的数据,我计算了一下,发现文有很多数据不够严谨,最主要的问题,并没有给出很详细的理论方面的说明。结合作者的思路,我进行了如下数学模型的构建和算法的实现。 一 概念介绍 词语分片 设一个文档集 。其中,为一个文本,。 设 为文档的分片集合。其中,为文档的一个词语分片,分片就是按step步长对 ...

2015-12-02 22:43 1 2611 推荐指数:

查看详情

信息熵与分类算法

在介绍之前,先从另一个概念说起:信息量 世界杯决赛的两支球队中,哪支球队获得了冠军?在对球队实力没有任何了解的情况下,每支球队夺冠的概率都是1/2,所以谁获得冠军这条信息信息量是 - log2 1/2 = 1 bit。如果信息是四强中的球队谁获得了冠军,它的信息 ...

Wed Apr 05 21:50:00 CST 2017 0 3579
信息熵和条件

引言 今天在逛论文时突然看到信息熵这个名词,我啪的一下就记起来了,很快啊!!这不是我大一第一节信息资源管理概论课讲到的第一个专业名词吗,信息熵我可熟了,章口就来,信息熵是负 .......淦,负又是啥。好家伙,一整门课的知识都还给老师了,只记得老师给我们大肆推荐的《JinPingMei ...

Mon Jun 07 02:27:00 CST 2021 0 339
信息熵的计算

最近在看决策树的模型,其中涉及到信息熵的计算,这里东西是由信号处理中来的,理论部分我就不再重复前人的东西了,下面给出两个简单的公式: 当然学习过信号与系统的童鞋一定觉得这不是香农提出的东西吗?O(∩_∩)O~没错,就是这个东西,只不过我们用在了机器学习上,好了下面就看代码 ...

Tue Jul 02 05:25:00 CST 2013 0 14561
信息熵

1. 信息熵 1.1 信息熵的数学本质 一个随机变量或系统所包含信息量的数学期望 1.2 信息熵的物理意义(信息论解释) 对随机变量的所有取值进行编码所需的最短编码长度 消除随机变量的不确定性所需的最短编码长度即为信息熵 1.3 随机变量X的: \(H(X ...

Sun Oct 28 06:57:00 CST 2018 0 678
信息熵的计算

最近在看决策树的模型,其中涉及到信息熵的计算,这里东西是由信号处理中来的,理论部分我就不再重复前人的东西了,下面给出两个简单的公式: 当然学习过信号与系统的童鞋一定觉得这不是香农提出的东西吗?O(∩_∩)O~没错,就是这个东西,只不过我们用在了机器学习上,好了下面就看代码 ...

Wed Apr 05 21:57:00 CST 2017 0 2335
信息熵

一、通俗解释 是衡量“信息量“大小的一个数值。什么叫”信息量“?举个例子。 假设你现在玩一个猜硬币正反面的游戏,有个人扔一次硬币,你猜正反面,猜对了可以拿100块钱,猜错了就没有钱。 现在有一个能预知未来的人,他知道本次抛硬币的结果,并且他愿意告诉你,只要你给他一定数量的钱 ...

Wed Dec 05 21:00:00 CST 2018 0 2486
每日一个机器学习算法——信息熵

1 定义 2 直观解释 信息熵用来衡量信息量的大小 若不确定性越大,则信息量越大,越大 若不确定性越小,则信息量越小,越小 比如A班对B班,胜率一个为x,另一个为1-x 则信息熵为 -(xlogx + (1-x)log(1-x)) 求导后容易证明x=1/2时取得最大,最大值 ...

Sun Sep 14 03:20:00 CST 2014 1 20121
信息熵,交叉和相对

0 前言 上"多媒体通信"课,老师讲到了信息论中的一些概念,看到交叉,想到这个概念经常用在机器学习中的损失函数中。 这部分知识算是机器学习的先备知识,所以查资料加深一下理解。 1 信息熵的抽象定义 的概念最早由统计热力学引入。 信息熵是由信息论之父香农提出来的,它用于随机变量 ...

Mon Oct 16 03:14:00 CST 2017 2 13650
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM