Python-統計txt文本中出現頻率最高的詞語


  • Jieba是一個中文分詞組件,可用於中文句子/詞性分割、詞性標注、未登錄詞識別,支持用戶詞典等功能。
  • Matplotlib是Python中最常用的可視化工具之一,可以非常方便地創建海量類型的2D圖表和一些基本的3D圖表。
  • 首先用pip安裝需要的兩個庫
pip install jieba
pip install matplotlib
  • 實驗代碼
import jieba
from collections import Counter
import json
import matplotlib.pyplot as plt
import matplotlib
import sys

#在引入jieba模塊后加入這行代碼,代碼即可不報錯
jieba.setLogLevel(jieba.logging.INFO)

#解決matplotlib顯示中文亂碼的問題
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['font.family']='sans-serif'

xianni=open('paper.txt','r').read()
xianni_words = [x for x in jieba.cut(xianni) if len(x) >= 2] #將全文分割,並將大於兩個字的詞語放入列表
c=Counter(xianni_words).most_common(10) #取最多的10組
print(json.dumps(c, ensure_ascii=False))

name_list=[x[0] for x in c] #X軸的值
num_list=[x[1] for x in c] #Y軸的值
b=plt.bar(range(len(num_list)), num_list,tick_label=name_list)#畫圖

plt.xlabel(u'詞語')
plt.ylabel(u'次數')
plt.title(u'文本分詞統計')
plt.show()#展示
  • 實驗結果

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM