件過濾:
"啞哈"中文分詞,更快或更准確,由你來定義。通過簡單定制,讓分詞模塊更適用於你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精確模式,將句子切成最合理的詞。 全模式,所有的可能詞都被切成詞... 更多Yaha信息
jieba "結巴"中文分詞:做最好的Python中文分詞組件 "Jieba" Feature 支持三種分詞模式: 精確模式,試圖將句子最精確地切開,適合文本分析; 全模式,把句子中所有的可以成詞的詞語都掃描出來, 速度非常快,但是不能解決歧義; 搜索引擎模式,在精確模式... 更多jieba信息
最近更新: 結巴分詞 0.34 發布,Python 中文分詞組件 發布於 1年前
smallseg -- 開源的,基於DFA的輕量級的中文分詞工具包 特點:可自定義詞典、切割后返回登錄詞列表和未登錄詞列表、有一定的新詞識別能力。 Python 示例代碼: s3 = file("text.txt").read() words = [x.rstrip() for x in file("main.dic") ] from small... 更多smallseg信息
finalseg -> Chinese Words Segment Library in Python based on HMM Model 基於HMM模型的中文分詞 用法 將finalseg目錄放置於當前目錄或者site-packages目錄 import finalseg 代碼示例 import finalseg sentence_list = [ "姚晨和老凌離婚了", "他說的確... 更多finalseg信息
最近更新: python中文分詞庫finalseg已經進入pypi倉庫 發布於 3年前
Genius Genius是一個開源的python中文分詞組件,采用 CRF(Conditional Random Field)條件隨機場算法。 Feature 支持python2.x、python3.x以及pypy2.x。 支持簡單的pinyin分詞 支持用戶自定義break 支持用戶自定義合並詞典 支持詞性標注 Source Install 安裝... 更多genius中文分詞信息
最近更新: Genius 分詞 3.1.6 版本發布 發布於 1年前
TextRank4ZH 用於自動從中文文本中提取關鍵詞和摘要,基於 TextRank 算法,使用 Python 編寫。 TextRank 算法可以用來從文本中提取關鍵詞和摘要(重要的句子)。TextRank4ZH是針對中文文本的TextRank算法的python算法實現。 安裝 本程序使用python 2.7測試... 更多TextRank4ZH信息
TextGrocery 是一個基於SVM算法的短文本分類工具,內置了結巴分詞,讓文本分類變得簡單。 示例代碼: >>> from tgrocery import Grocery # 新開張一個雜貨鋪,別忘了取名! >>> grocery = Grocery('sample') # 訓練文本可以用列表傳入 >>> train_src = [ ... 更多TextGrocery信息
python-nlpir是NLPIR的一個python封裝。NLPIR是目前運用最為廣泛的中文分詞工具。目前該軟件支持Windows和Linux。 更多python-nlpir信息
snailseg Chinese Words Segment Library in Python 簡單的中文分詞庫 在線分詞效果展示 https://snailsegdemo.appspot.com/ Usage 將snailseg目錄放置於當前目錄或者site-packages目錄 import snailseg 代碼示例 import snailseg words = snailseg.cut("... 更多snailseg信息
scseg中文分詞,是基於mmseg的簡單分詞組件 Feature 支持pinyin分詞 支持用戶自定義詞典 支持單位合並 支持漢字數字識別 Install pip install scseg 通過import scseg來引用 Algorithm 采用mmseg算法進行切分 采用規則方式支持中文數字分詞 功能 1):分詞s... 更多scseg信息
這是一個簡單的中文分詞程序,可以在沒有語料庫的情況下通過各個詞語的相關度將中文詞匯抽取出來 具體的理論可以參看Matrix67的博客文章: http://www.matrix67.com/blog/archives/5044 我只是把這個算法進行了實現而已。 該程序寫得比較着急,還有很多... 更多ChineseWordSegmentation信息
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。