PyNLPIR python中文分词工具



        NLPIR分词系统前身为2000年发布的ICTCLAS词法分析系统,从2009年开始,为了和以前工作进行大的区隔,并推广NLPIR自然语言处理与信息检索共享平台,调整命名为NLPIR分词系统。    
        其主要的功能有中文分词,标注词性和获取句中的关键词。
        主要用到的函数有两个:  pynlpir. segment ( s pos_tagging=True pos_names='parent' pos_english=True )
                                                   pynlpir.get_key_words(smax_words=50weighted=False)
           分词: pynlpir. segment ( s pos_tagging=True pos_names='parent' pos_english=True
                S: 句子    
                pos_tagging:是否进行词性标注    
                pos_names:显示词性的父类(parent)还是子类(child) 或者全部(all)   
                pos_english:词性显示英语还是中文
            获取关键词:pynlpir.get_key_words(smax_words=50weighted=False)
                s: 句子
                max_words:最大的关键词数
                weighted:是否显示关键词的权重
        
        
        
  1. import pynlpir
  2. import jieba
  3. pynlpir.open()
  4. s = '最早的几何学兴起于公元前7世纪的古埃及'
  5. # s = 'hscode为0110001234的进口'
  6. segments = pynlpir.segment(s, pos_names='all',pos_english=False)
  7. for segment in segments:
  8. print (segment[0], '\t', segment[1])
  9. key_words = pynlpir.get_key_words(s, weighted=True)
  10. for key_word in key_words:
  11. print (key_word[0], '\t', key_word[1])
  12. pynlpir.close()
                             
 





免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM