原文:开源中文分词工具探析(六):Stanford CoreNLP

CoreNLP是由斯坦福大学开源的一套Java NLP工具,提供诸如:词性标注 part of speech POS tagger 命名实体识别 named entity recognizer NER 情感分析 sentiment analysis 等功能。 开源中文分词工具探析 系列: 开源中文分词工具探析 一 :ICTCLAS NLPIR 开源中文分词工具探析 二 :Jieba 开源中文分词工 ...

2018-02-07 21:24 0 11430 推荐指数:

查看详情

开源中文分词工具探析(五):FNLP

FNLP是由Fudan NLP实验室的邱锡鹏老师开源的一套Java写就的中文NLP工具包,提供诸如分词、词性标注、文本分类、依存句法分析等功能。 【开源中文分词工具探析】系列: 开源中文分词工具探析(一):ICTCLAS (NLPIR) 开源中文分词工具探析(二):Jieba ...

Thu Mar 16 22:29:00 CST 2017 5 4979
开源中文分词工具探析(三):Ansj

Ansj是由孙健(ansjsun)开源的一个中文分词器,为ICTLAS的Java版本,也采用了Bigram + HMM分词模型(可参考我之前写的文章):在Bigram分词的基础上,识别未登录词,以提高分词准确度。虽然基本分词原理与ICTLAS的一样,但是Ansj做了一些工程上的优化,比如:用DAT ...

Thu Jan 12 03:21:00 CST 2017 3 11409
开源中文分词工具探析(四):THULAC

THULAC是一款相当不错的中文分词工具,准确率高、分词速度蛮快的;并且在工程上做了很多优化,比如:用DAT存储训练特征(压缩训练模型),加入了标点符号的特征(提高分词准确率)等。 【开源中文分词工具探析】系列: 开源中文分词工具探析(一):ICTCLAS (NLPIR) 开源 ...

Wed Feb 22 23:57:00 CST 2017 0 4594
开源中文分词工具探析(七):LTP

LTP是哈工大开源的一套中文语言处理系统,涵盖了基本功能:分词、词性标注、命名实体识别、依存句法分析、语义角色标注、语义依存分析等。 【开源中文分词工具探析】系列: 开源中文分词工具探析(一):ICTCLAS (NLPIR) 开源中文分词工具探析(二):Jieba 开源中文 ...

Tue Jun 12 00:52:00 CST 2018 1 3573
stanford corenlp的TokensRegex

最近做一些音乐类、读物类的自然语言理解,就调研使用了下Stanford corenlp,记录下来。 功能 Stanford Corenlp是一套自然语言分析工具集包括: POS(part of speech tagger)-标注词性 NER(named entity ...

Fri Aug 05 23:59:00 CST 2016 0 3075
Stanford CoreNLP--功能列表

Standford CoreNLP包含很多功能,github上有源码,github地址:Stanford CoreNLP,有需要的话可以下载看看。 主要内容在网站上都有描述,原文是这样写的: Choose Stanford CoreNLP if you need ...

Fri May 06 19:13:00 CST 2016 0 3059
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM