中文詞頻統計


作業要求來自: https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/2773

中文詞頻統計

1. 下載一長篇中文小說。

《倚天屠龍記》

2. 從文件讀取待分析文本。

3. 安裝並使用jieba進行中文分詞。

pip install jieba

import jieba

ljieba.lcut(text)

4. 更新詞庫,加入所分析對象的專業詞匯。

jieba.add_word('天罡北斗陣')  #逐個添加

jieba.load_userdict(word_dict)  #詞庫文本文件

5. 生成詞頻統計

6. 排序

7. 排除語法型詞匯,代詞、冠詞、連詞

8. 輸出詞頻最大TOP20,把結果存放到文件里

9. 生成詞雲。

代碼如下:

from wordcloud
import WordCloudimport matplotlib.pyplot as plt
import jieba


article = open('yt.txt',encoding='UTF-8').read()
dele = {'。','!','?','的','“','”','(',')',' ','》','《',','}
jieba.add_word('張無忌')
words = list(jieba.cut(article))
articleDict = {}
articleSet = set(words)-dele
for w in articleSet:
if len(w)>1:
articleDict[w] = words.count(w)

articlelist = sorted(articleDict.items(),key = lambda x:x[1], reverse = True)

cut_text = " ".join(words)
'print(cut_text)'

mywc = WordCloud().generate(cut_text)
plt.imshow(mywc)plt.axis("off")
plt.show()
'''
for i in range(20):
print(articlelist[i])
import pandas as pd
pd.DataFrame(data=articlelist).to_csv('test.csv',encoding='UTF-8')


運行結果:

 

詞雲:

 

 
       


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM