python調用hanlp分詞包手記
Hanlp作為一款重要的分詞工具,本月初的時候看到大快搜索發布了hanlp的1.7版本,新增了文本聚類、流水線分詞等功能。關於hanlp1.7版本的新功能,后面有使用的到時候在給大家分享。本篇分享一個在python里調用hanlp分詞包的過程文章,供需要的朋友參考學習交流!以下為文章內容:
1.在python下安裝pyhanlp
sudo pip install pyhanlp
(詳見pyhanlp官方文檔)
2.pyhanlp的一些使用方法
(1)Hanlp.segment的使用
from pyhanlp import *
print HanLP.segment("今天開心了嗎?")
#輸出:[今天/t, 開心/a, 了/ule, 嗎/y, ?/w]
(2)其它API函數的使用。
(pyhanlp里已經含有以下這些功能了,可以直接調用)
1 - # API列表
2CustomDictionary= LazyLoadingJClass('com.hankcs.hanlp.dictionary.CustomDictionary')
3 HanLP = SafeJClass('com.hankcs.hanlp.HanLP')
4 HanLP.Config = JClass('com.hankcs.hanlp.HanLP$Config')
5PerceptronLexicalAnalyzer= SafeJClass('com.hankcs.hanlp.model.perceptron.PerceptronLexicalAnalyzer')
6 DoubleArrayTrieSegment = SafeJClass('com.hankcs.hanlp.seg.Other.DoubleArrayTrieSegment')
7AhoCorasickDoubleArrayTrie = SafeJClass('com.hankcs.hanlp.collection.AhoCorasick.AhoCorasickDoubleArrayTrie')
8IOUtil = SafeJClass('com.hankcs.hanlp.corpus.io.IOUtil')
9TraditionalChineseTokenizer=SafeJClass('com.hankcs.hanlp.tokenizer.TraditionalChineseTokenizer')
調用方法
analyzer=PerceptronLexicalAnalyzer()
a =analyzer.analyze("今天開心了嗎?")
print a
3.其它更多的功能的實現。
① 比如繁體分詞,自動生成摘要這些hanlp能實現的,但不在以上API函數里面的,我們可以通過以下方法。
② 首先要在“../pyhanlp/init.py”pycharm文件下通過jclass語句引入更深類路徑。比如(我引入的是中文繁體分詞這個API函數)
③ TraditionalChineseTokenizer=SafeJClass('com.hankcs.hanlp.tokenizer.TraditionalChineseTokenizer')
④ 然后就可以直接調用了,真的超級棒。
⑤ print TraditionalChineseTokenizer.segment('三華裔獲得傑出青年獎‘)
⑥ #輸出:[三/m, 華裔/n, 獲得/v, 傑出青年/nz, 獎/n]
⑦ -其它更多的API函數的路徑請參考java原代碼。
---------------------
作者:小傻子kkk